395
Álgebra Lineal Teoría y Práctica Miguel A. Perelló c ° 2000 - 2002 CRESLINE Versión 20020715

Álgebra Lineal. Teoría y Práctica (Aprendes.com)

  • Upload
    gcr1974

  • View
    889

  • Download
    8

Embed Size (px)

DESCRIPTION

Contiene teoría, ejercicios propuestos y resueltos

Citation preview

Page 1: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Álgebra LinealTeoría y Práctica

Miguel A. Perellóc° 2000 - 2002 CRESLINE

Versión 20020715

Page 2: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

ii

Page 3: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Índice general

Introducción XI

I Teoría 1

1. Espacios vectoriales 31.1. Hacia el concepto de vector . . . . . . . . . . . . . . . . . . . . . 31.2. Concepto de espacio vectorial . . . . . . . . . . . . . . . . . . . . 31.3. Propiedades elementales . . . . . . . . . . . . . . . . . . . . . . . 71.4. Producto de espacios vectoriales . . . . . . . . . . . . . . . . . . 81.5. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 91.6. Intersección de subespacios vectoriales . . . . . . . . . . . . . . . 121.7. Subespacio engendrado por un subconjunto . . . . . . . . . . . . 131.8. Suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . . 141.9. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 181.10. Clausura lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.11. Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . 231.12. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . 251.13. Bases de un espacio vectorial de dimensión finita . . . . . . . . . 301.14. Dimensión de un subespacio vectorial . . . . . . . . . . . . . . . . 341.15. Espacio vectorial cociente . . . . . . . . . . . . . . . . . . . . . . 381.16. Rango de un sistema de vectores . . . . . . . . . . . . . . . . . . 401.17. Isomorfismos de espacios vectoriales . . . . . . . . . . . . . . . . 431.18. Cambio de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 48

2. Aplicaciones lineales 532.1. Definición y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 532.2. Núcleo e imagen de una aplicación lineal . . . . . . . . . . . . . . 552.3. Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . 572.4. Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . . . 622.5. Teoremas de isomorfismo . . . . . . . . . . . . . . . . . . . . . . 652.6. El espacio de las aplicaciones lineales . . . . . . . . . . . . . . . . 68

iii

Page 4: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

iv ÍNDICE GENERAL

3. Matrices 713.1. Definición de matriz . . . . . . . . . . . . . . . . . . . . . . . . . 71

3.1.1. Tipos especiales de matrices . . . . . . . . . . . . . . . . . 733.2. Espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . 76

3.2.1. Suma de matrices . . . . . . . . . . . . . . . . . . . . . . 763.2.2. Multiplicación escalar de matrices . . . . . . . . . . . . . 77

3.3. Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . 803.4. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 823.5. Imagen de un vector por de una aplicación lineal . . . . . . . . . 853.6. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . 863.7. Trasposición de matrices . . . . . . . . . . . . . . . . . . . . . . . 903.8. Cambios de base en un espacio vectorial . . . . . . . . . . . . . . 923.9. Cambios de base en una aplicación lineal . . . . . . . . . . . . . . 94

3.9.1. Matrices equivalentes . . . . . . . . . . . . . . . . . . . . 963.9.2. Matrices semejantes . . . . . . . . . . . . . . . . . . . . . 97

3.10. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 983.11. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . 100

4. Determinantes 1114.1. Determinante de n vectores . . . . . . . . . . . . . . . . . . . . . 111

4.1.1. Propiedades de las formas multilineales alternadas . . . . 1134.1.2. Propiedades de los determinantes . . . . . . . . . . . . . . 120

4.2. Determinante de un endomorfismo . . . . . . . . . . . . . . . . . 1224.3. Determinante de una matriz cuadrada . . . . . . . . . . . . . . . 126

4.3.1. Desarrollo por los elementos de una fila o columna . . . . 1294.3.2. Cálculo del rango de una matriz por determinantes . . . . 1324.3.3. Cálculo por determinantes de la matriz inversa . . . . . . 134

5. Sistemas de ecuaciones lineales 1375.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . 1375.2. Existencia de soluciones de un sistema de ecuaciones lineales . . 1385.3. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 1405.4. Resolución de un sistema de ecuaciones lineales . . . . . . . . . . 1415.5. Clasificación de los sistemas de ecuaciones lineales . . . . . . . . 1485.6. Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 1505.7. Cálculo de la matriz inversa . . . . . . . . . . . . . . . . . . . . . 1535.8. Estudio de las ecuaciones AX = B . . . . . . . . . . . . . . . . . 155

6. Diagonalización de endomorfismos 1596.1. Vectores propios y valores propios. Polinomio característico . . . 1596.2. Diagonalización de endomorfismos . . . . . . . . . . . . . . . . . 161

Page 5: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

ÍNDICE GENERAL v

7. La forma reducida de Jordan 1677.1. Polinomio mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . 1677.2. Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . 1697.3. El teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 1757.4. Matriz reducida (general) de un endomorfismo . . . . . . . . . . 1777.5. Matriz reducida de Jordan . . . . . . . . . . . . . . . . . . . . . . 181

8. Formas bilineales simétricas y formas cuadráticas 1858.1. Definición y primeras propiedades . . . . . . . . . . . . . . . . . . 1858.2. Ortogonalidad. Elementos isótropos . . . . . . . . . . . . . . . . 195

8.2.1. Bases ortogonales . . . . . . . . . . . . . . . . . . . . . . . 2008.2.2. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . 204

8.3. Formas bilineales simétricas reales . . . . . . . . . . . . . . . . . 2078.3.1. Endomorfismos adjuntos y autoadjuntos . . . . . . . . . . 2138.3.2. Diagonalización de matrices simétricas . . . . . . . . . . . 218

8.4. Procedimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2238.4.1. Reducción de las formas cuadráticas reales . . . . . . . . 2238.4.2. Clasificación de formas cuadráticas reales . . . . . . . . . 228

II Práctica 233

9. Espacios vectoriales 2359.1. Concepto de espacio vectorial . . . . . . . . . . . . . . . . . . . . 2359.2. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 2429.3. Intersección de subespacios vectoriales . . . . . . . . . . . . . . . 2459.4. Subespacio engendrado por un conjunto . . . . . . . . . . . . . . 2469.5. Suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . . 2469.6. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 2479.7. Clausura lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2499.8. Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . 2529.9. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . 2539.10. Bases de un espacio vectorial de dimensión finita . . . . . . . . . 2559.11. Dimensión de un subespacio vectorial . . . . . . . . . . . . . . . . 2579.12. Espacio vectorial cociente . . . . . . . . . . . . . . . . . . . . . . 2599.13. Rango de un sistema de vectores . . . . . . . . . . . . . . . . . . 2599.14. Producto de espacios vectoriales. Isomorfismos de espacios vecto-

riales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2629.15. Cambio de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 262

10.Aplicaciones lineales 26510.1. Definición y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 26510.2. Núcleo e imagen de una aplicación lineal . . . . . . . . . . . . . . 26710.3. Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . 27010.4. Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . . . 27510.5. Teoremas de isomorfismo . . . . . . . . . . . . . . . . . . . . . . 276

Page 6: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

vi ÍNDICE GENERAL

10.6. El espacio de las aplicaciones lineales . . . . . . . . . . . . . . . . 277

11.Matrices 27911.1. Definición de matriz . . . . . . . . . . . . . . . . . . . . . . . . . 27911.2. Espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . 27911.3. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 28111.4. Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . 28311.5. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . 28311.6. Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 28511.7. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . 288

12.Determinantes 29312.1. Formas multilineales. Propiedades . . . . . . . . . . . . . . . . . 29312.2. Determinante de un endomorfismo . . . . . . . . . . . . . . . . . 29412.3. Determinante de una matriz cuadrada. Propiedades . . . . . . . 295

13.Sistemas de ecuaciones lineales 303

14.Diagonalización de endomorfismos 31314.1. Vectores y valores propios. Polinomio característico . . . . . . . . 31314.2. Diagonalización de matrices . . . . . . . . . . . . . . . . . . . . . 314

15.Forma reducida de Jordan 31915.1. Polinomio mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . 31915.2. Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . 32015.3. El teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 32315.4. Matriz canónica de un endomorfismo . . . . . . . . . . . . . . . . 326

16.Formas bilineales simétricas y formas cuadráticas 33116.1. Definición y primeras propiedades . . . . . . . . . . . . . . . . . . 33116.2. Ortogonalidad respecto a una forma bilineal simétrica . . . . . . 33416.3. Formas bilineales simétricas reales . . . . . . . . . . . . . . . . . 33916.4. Procedimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342

III Apéndices 347

A. Espacios vectoriales 349

B. Aplicaciones lineales 355

C. Matrices 361

D. Determinantes 365

E. Sistemas de ecuaciones lineales 369

F. Diagonalización de endomorfismos 371

Page 7: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

ÍNDICE GENERAL vii

G. Forma reducida de Jordan 375

H. Formas bilineales simétricas y formas cuadráticas 379

Agradecimientos 381

Page 8: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

viii ÍNDICE GENERAL

Page 9: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Prefacio

El presente libro es sólo una parte del curso que con el mismo título seofrece de forma gratutita en www.aprendes.com. Su único objetivo es presentarsus contenidos en formato pdf para que el estudiante pueda obtener una copiaimpresa de aquellos documentos que son de su interés. El estudiante, sin em-bargo, debe tener en cuenta que al elegir el estudio por la vía del documentoimpreso no podrá beneficiarse de ninguna de las ayudas incorporadas en el cursomediante interacción, ni de ninguno de los exámenes tipo test donde podrá pon-er a prueba su nivel de conocimientos sobre un determinado tema. Este materialdebe considerarse solamente como un soporte de repaso a los cursos interactivospresentados por aprendes.com.

ix

Page 10: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

x PREFACIO

Page 11: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Introducción

El presente libro, dedicado al Álgebra Lineal, está destinado a los estudiantesde primer curso de las Facultades de Ciencias, Escuelas de Ingeniería y Arqui-tectura, y su texto está dividido en tres partes: Teoría, Práctica y Apéndice.La primera parte presenta una exposición teórica de cada tema por capítulos.

En cada capítulo se tratan los conceptos de forma rigurosa mediante definiciones,se enuncian sus propiedades mediante teoremas y corolarios, y se acompañantodas las demostraciones. En la exposición se han incorporado ejemplos parahacer más fácil su compresión y su utilización en la práctica.La segunda parte, como su nombre indica, es una cuidada selección de prob-

lemas resueltos de cada tema. En la mayoría de los casos, los problemas sepresentan en cada capítulo de esta parte bajo los mismos epígrafes que la ex-posición teórica, y se han escrito los razonamientos que justifican los pasosrealizados para llegar a la solución de cada uno de ellos.Finalmente, como apéndice del texto, se han añadido listas de problemas

de cada uno de los temas tratados en las partes anteriores para que sirvan desoporte a los estudiantes que quieran practicar y profundizar más, así como labibliografía utilizada en el curso.

xi

Page 12: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

xii INTRODUCCIÓN

Page 13: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Parte I

Teoría

1

Page 14: Álgebra Lineal. Teoría y Práctica (Aprendes.com)
Page 15: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 1

Espacios vectoriales

1.1. Hacia el concepto de vector

La palabra ”vector” es conocida de todos por la geometría. En el bachillerato,se estudió la clase de objetos que denominamos vectores en geometría plana odel espacio. Sin embargo, hay otras clases de objetos de la matemática quese comportan del mismo modo; comportarse del mismo modo significa poseerlas mismas propiedades. Descubrir estas propiedades es el primer paso hacia lageneralización.El segundo paso es la axiomatización, es decir, elegir entre todas las

propiedades descubiertas aquellas que permitan deducir todas las demás; es-tas propiedades se llaman entonces axiomas. Cualquier clase de objetos quesatisfaga estos axiomas se dirá que se comportan como vectores.El último paso es desarrollar la teoría matemática con base en los axiomas

previamente elegidos. Los resultados que se obtienen de la teoría constituyenlas propiedades de los vectores. Por tanto, cualquier clase de objetos que secomporten como vectores tendrán estas propiedades.Según la teoría matemática, se llamará vector a cualquier elemento de un

espacio vectorial. Es preciso pues definir el concepto de espacio vectorial.

1.2. Concepto de espacio vectorial

Para saber si un conjunto es un espacio vectorial es necesario comprobarque sobre él podemos definir dos operaciones. Una de ellas es interna, es decir,estable respecto a los elementos del propio conjunto y, la otra, es externa y suconjunto de operadores externo es un cuerpo conmutativo; decir que la operaciónes externa significa que es estable respecto a la actuación del cuerpo sobre loselementos del conjunto. Además, estas dos operaciones deben satisfacer unasdeterminadas propiedades, que se denominan axiomas.

Definición 1 Dado un cuerpo conmutativo K, sea E un conjunto arbitrario de

3

Page 16: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4 CAPÍTULO 1. ESPACIOS VECTORIALES

objetos sobre los cuales se definen dos operaciones, la adición y la multiplicaciónpor escalares (elementos de K). Por adición se entiende una regla para asociarcon cada pareja de objetos u y v de E, un elemento u+v, llamado suma de uy v. Por multiplicación por escalares se entiende una regla para asociar concada escalar λ de K y cada objeto u de E, un elemento λu, llamado producto deu por el escalar λ. Si los axiomas siguientes son satisfechos por todos los objetosu,v,w en E y todos los escalares λ, µ en K, entonces E recibe el nombre deespacio vectorial sobre K, y a los objetos en E se les denomina entoncesvectores.

1. Si u y v son objetos de E, entonces u + v está en E (la adición es unaoperación interna)

2. u+ (v +w) = (u+ v) +w (la adición es asociativa)

3. u+ v = v+ u (la adición es conmutativa)

4. Existe un objeto 0 en E, denominado vector cero, tal que 0+u = u+0 =u (la adición posee elemento neutro)

5. Para cada u en E, existe un objeto −u en E, denominado opuesto deu, tal que u + (−u) = (−u) + u = 0 (la adición posee la propiedad delelemento simétrico)

6. Si λ está en K y u en E, entonces λu está en E (la multiplicación porescalares es una operación externa y su conjunto de operadores es K)

7. λ(u+ v) = λu+ λv

8. (λ+ µ)u = λu+ µu

9. λ(µu) = (λµ)u

10. 1u = u (1 es la unidad del cuerpo K)

Observación 1 Hacemos las siguientes observaciones importantes:

1. En la teoría de espacios vectoriales, el cuerpo K se fija de una vez parasiempre y se llama el cuerpo base. Sus elementos se llaman escalaresy se designan por letras griegas.

2. A los elementos de los espacios vectoriales se les llama vectores y sedesignan por letras minúsculas en negrita. Para distinguir el conjunto desu estructura de espacio vectorial, utilizaremos la siguiente notación: es-cribiremos E para referirnos simplemente al conjunto, y E para referirnosa su estructura de espacio vectorial sobre K.

3. En realidad, la distinción entre escalares y vectores no tiene ningún sentidomatemático ya que como veremos más abajo los escalares se comportantambién como vectores.

Page 17: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.2. CONCEPTO DE ESPACIO VECTORIAL 5

4. Se ha utilizado el mismo signo + para denotar dos operaciones distintas(la adición en K y la adición en el espacio vectorial), pero no da lugar aconfusión si nos fijamos en los elementos que une el signo + en cada caso.Lo mismo puede decirse de la multiplicación en K y de la multiplicaciónpor escalares.

5. El conjunto E dotado con la adición tiene la estructura de grupo con-mutativo o abeliano al satisfacer los axiomas 1-5. Se supone en estasección que el lector está familiarizado con las propiedades elementales dela teoría de grupos.

6. En particular, un espacio vectorial sobre el cuerpo R de los números realesse llama un espacio vectorial real, y un espacio vectorial sobre el cuerpoC de los números complejos, un espacio vectorial complejo.

7. El lector debe tener presente que, en la definición de espacio vectorial, nose especifica la naturaleza de lo que llamamos después vectores ni la delas operaciones que denominamos adición y multiplicación por escalares.Cualquier clase de objetos que se desee puede servir como vectores, todo loque se requiere es que se satisfagan los axiomas de los espacios vectoriales.En los ejemplos que siguen, dan cierta idea de la diversidad de espaciosvectoriales posibles.

Ejemplo 1 Todo cuerpo conmutativo es un espacio vectorial sobre sí mismo,lo que muestra que los ”escalares” son en este caso también ”vectores”; Q, R yC son espacios vectoriales sobre sí mismo.

Ejemplo 2 El cuerpo de los números reales R es un espacio vectorial sobre elcuerpo Q de los números racionales;

√2, π, 5

√2+π/3, etc., son vectores de este

espacio.

Ejemplo 3 Tomemos E = C, K = R y las operaciones

(a+ bi) + (c+ di) = (a+ c) + (b+ d)i

λ(a+ bi) = λa+ λbi

donde a, b, c, d, λ ∈ R, entonces C es un espacio vectorial real; es también unespacio vectorial sobre sí mismo. Es importante saber que estas dos estructurasson diferentes.

Ejemplo 4 Tomemos K = R y como E el conjunto de los vectores de origendado O del espacio ordinario. Definimos la suma de dos vectores por la regladel paralelogramo y el producto de un número real λ por un vector v como elvector obtenido aplicando a v la homotecia de centro O y razón λ. De este modose obtiene un espacio vectorial real. En este ejemplo está el origen de la nocióngeneral de espacio vectorial y explica además el empleo de la palabra ”vector”para designar a sus elementos.

Page 18: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

6 CAPÍTULO 1. ESPACIOS VECTORIALES

Ejemplo 5 Se llama vector de orden n sobre K a toda n− tupla ordenada(x1, ..., xn) de elementos del cuerpo conmutativo K. Los elementos xi se llamancomponentes del vector. El elemento xi recibe entoces el nombre de compo-nente i− esima del vector. Dos vectores de orden n son iguales si y sólo si suscomponentes son iguales. Distinguiremos entre vector fila

( x1 · · · xn )

y vector columna x1...xn

Es fácil dotar al conjunto de estos vectores de estructura de espacio vectorialsobre K. La adición se define por

(x1, ..., xn) + (y1, ..., yn) = (x1 + y1, ..., xn + yn)

El elemento neutro es 0 = (0, ..., 0) y el opuesto de (x1, ..., xn) es (−x1, ...,−xn).La multiplicación por un escalar λ ∈ K se define por

λ(x1, ..., xn) = (λx1, ..., λxn)

Es inmediato comprobar que se cumplen todos los axiomas de espacio vectorial,ya que quedan reducidos a las propiedades elementales entre elementos del cuerpoK. Este espacio vectorial se denota por Kn. Este ejemplo tiene su origen en lageometría analítica al representar un vector por sus componentes en los ejes decoordenadas.

Ejemplo 6 El conjunto

Rn [x] =©a0 + a1x+ a2x

2 + ...+ anxn : a0, a1, a2, ..., an ∈ R

ªde los polinomios de grado a lo sumo n con coeficientes reales y las operaciones

(a0 + a1x+ a2x2 + ...+ anx

n) + (b0 + b1x+ b2x2 + ...+ bnx

n) =

(a0 + b0) + (a1 + b1)x+ (a2 + b2)x2 + ...+ (an + bn)x

n

λ(a0 + a1x+ a2x2 + ...+ anx

n) = λa0 + λa1x+ λa2x2 + ...+ λanx

n

forman un espacio vectorial real.

Ejemplo 7 El conjunto F(R,R) = {f : f : R→ R} de las funciones reales devariable real y las operaciones (f, g) 7−→ f + g y (λ, f) 7−→ λf definidas comosigue

(f + g)(x) = f(x) + g(x)

(λf)(x) = λf(x)

forman un espacio vectorial real.

Page 19: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.3. PROPIEDADES ELEMENTALES 7

Ejemplo 8 El conjunto Mn×m(R) de las matrices de orden n × m con coe-ficientes reales junto con las operaciones de adición matricial y multiplicaciónescalar:

(aij) + (bij) = (aij + bij)

λ(aij) = (λaij)

donde 1 ≤ i ≤ n y 1 ≤ j ≤ m, forman un espacio vectorial real.

Ejemplo 9 El conjunto E de todos los puntos del plano que se encuentran enel primer cuadrante no es un espacio vectorial real. Para ver esto, obsérvese queel punto de coordenadas (1, 1) está en E, pero (−1)(1, 1) = (−1,−1) no lo está.Ejemplo 10 El conjunto de los polinomios de segundo grado con coeficientesreales no es un espacio vectorial real. Para ver esto, consideremos los siguientespolinomios de segundo grado:

p(x) = x2 y q(x) = −x2 + x+ 1

Entonces, su suma no es un polinomios de segundo grado, pues

p(x) + q(x) = x+ 1

Observación 2 Sería interesante que el lector probara todas los axiomas de losespacios vectoriales en los ejemplos anteriores; es fácil aunque un poco largo.

1.3. Propiedades elementalesComo consecuencia de la definición, se obtienen los siguientes resultados.

Teorema 1 Para cualquier u de E y λ de K, se cumple:

1. 0u = 0

2. λ0 = 0

3. λu = 0 implica λ = 0 o u = 0

4. (−1)u = −uDemostración: (1.) En efecto, aplicando el axioma 8, se tiene

0u = (0 + 0)u = 0u+ 0u

y, de aquí, por la unicidad del vector cero, se deduce 0u = 0.(2.) En efecto, aplicando los axiomas 4 y 7, se tiene

λ0 = λ(0+ 0) = λ0+ λ0

Page 20: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8 CAPÍTULO 1. ESPACIOS VECTORIALES

y, de aquí, por la misma razón de antes, se deduce λ0 = 0.(3.) En efecto, si λ 6= 0, λ es invertible en K. Entonces, aplicando el axioma

9 y el apartado anterior, se tiene

u = 1u = (λ−1λ)u = λ−1(λu) = λ−10 = 0

y de aquí, se deduce lo que queríamos demostrar.(4.) En efecto, aplicando los axiomas 10 y 8, y el apartado 1, se tiene

u+ (−1)u = 1u+ (−1)u = (1 + (−1))u = 0u = 0

de donde, por la unicidad del opuesto de u, se tiene lo que queríamos probar.

1.4. Producto de espacios vectoriales

El procedimiento que nos ha permitido definir Kn a partir de K puede gen-eralizarse para construir nuevos espacios a partir de espacios conocidos.Sean E1 y E2 dos espacios vectoriales sobre el mismo cuerpo conmutativo K.

Consideremos el conjunto producto E1 ×E2 y las dos operaciones siguientes:

(u1,u2) + (v1,v2) = (u1 + v1,u2 + v2)

λ(u1,u2) = (λu1, λu2)

Entonces con estos datos tenemos un espacio vectorial sobre K que se llamaespacio vectorial producto E1 × E2.Del mismo modo se define el producto de n espacios vectoriales E1, ...,En

sobre un mismo cuerpo K. Las operaciones son en este caso

(u1,u2, ...,un) + (v1,v2, ...,vn) = (u1 + v1,u2 + v2, ...,un + vn)

λ(u1,u2, ...,un) = (λu1, λu2, ..., λun)

que definen el espacio vectorial producto E1 × E2 × · · · × En.

Observación 3 De nuevo hacemos la sugerencia de que el lector haga la pruebade las dos afirmaciones anteriores.

Sabemos que K es un espacio vectorial sobre sí mismo, entonces, tomandoE1 = E2 = · · · = En = K, se tiene el espacio vectorial Kn sobre K. Este espaciovectorial es el mismo que el del ejemplo 5.

Ejemplo 11 Rn es un espacio vectorial real.

Ejemplo 12 Cn es un espacio vectorial tanto real como complejo.

Page 21: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.5. SUBESPACIOS VECTORIALES 9

1.5. Subespacios vectorialesSi E es un espacio vectorial sobre K, entonces ciertos subconjuntos de E

forman por sí mismos espacios vectoriales sobre el mismo cuerpo, junto con laadición y multiplicación por escalares definidas en E. En esta sección se estudiacon detalle estos subconjuntos.

Definición 2 Dado un espacio vectorial E sobre K, se llama subespacio vec-torial de E a todo subconjunto de E que es también un espacio vectorial con lasmismas operaciones de adición y multiplicación por escalares definidas en E.

Teorema 2 Para que un subconjunto S no vacío de E sea un subespacio vecto-rial de E es necesario y suficiente que se cumplan las dos condiciones siguientes:

1. para todo u,v ∈ S, u+ v ∈ S

2. para todo u ∈ S y λ ∈ K, λu ∈ S

Demostración: Las dos condiciones son suficientes. En efecto, es claro que +es asociativa y conmutativa en S al serlo en E. Además, si u ∈ S y −1 ∈ K,entonces (−1)u = −u ∈ S y además u+ (−u) = 0 ∈ S. De este modo S con lasuma es grupo conmutativo. Se comprueba en seguida que se cumplen los demásaxiomas.Las dos condiciones son necesarias. En efecto, si S es un espacio vectori-

al con las mismas operaciones definidas en E se cumplen trivialmente las doscondiciones (son los axiomas 1 y 6).

Teorema 3 Un subconjunto S no vacío de E es un subespacio vectorial de E siy sólo si, para todo u,v ∈ S y todo λ, µ ∈ K, se cumple que

λu+ µv ∈ S

Demostración: La condición es suficiente. En efecto, si u,v ∈ S, puesto que1,−1 ∈ K, entonces

1u+ 1v = u+ v ∈ S

y1u+ (−1)u = u+ (−u) = 0 ∈ S

De esta última relación se sigue que si λ ∈ K, entonces

λu+ 0 = λu ∈ S

Por tanto, por el teorema anterior, se deduce que S es un subespacio vectorialde E.La condición es necesaria. Si S es un subespacio vectorial es evidente que se

satisface la condición indicada.

Observación 4 Hacemos las observaciones siguientes:

Page 22: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

10 CAPÍTULO 1. ESPACIOS VECTORIALES

1. Todo espacio vectorial E tiene al menos dos subespacios. El propio E esun subespacio y el conjunto {0} es otro subespacio denominado subespaciocero; respecto a la inclusión de conjuntos, podemos afirmar que el primeroes el mayor de todos los subespacios de E, y el menor, es el segundo. Todosubespacio distinto a estos dos se llama subespacio vectorial propio de E.

2. Distinguiremos la estructura de espacio vectorial de un subconjunto S quees subespacio vectorial de E por S.

Ejemplo 13 En el espacio vectorial real E de los vectores de origen O delespacio ordinario, se tienen dos clases de subespacios vectoriales (aparte de {0}y del propio E): (a) el conjunto de los vectores de origen O situados sobre unarecta que pasa por O, y (b) el conjunto de los vectores de origen O situadossobre un plano que pasa por O. Obsérvese que no hay ningún otro subespaciovectorial de E más que los que acabamos de describir.

Ejemplo 14 El conjunto de los números reales R es un subespacio vectorial deC considerado como espacio vectorial real.

Ejemplo 15 Demostrar que el conjunto S de las matrices cuadradas de orden2 que tienen ceros en la diagonal principal es un subespacio del espacio vectorialreal de todas las matrices cuadradas de orden 2 con coeficientes reales.Solución: Es claro que S 6= ∅. Sean

A =

µ0 a12a21 0

¶y B =

µ0 b12b21 0

¶dos matrices cualesquiera de S y λ un escalar cualquiera. Entonces

A+B =

µ0 a12 + b12

a21 + b21 0

¶y

λA =

µ0 λa12

λa21 0

¶Debido a que A+B y λA tienen ceros en la diagonal principal, están en S. Porconsiguiente, S es un subespacio vectorial.

Ejemplo 16 Sea n un número natural y supongamos que S consta de la funciónconstante igual 0 y de todas las funciones polinómicas de grado a lo sumo n;esto es, todas las funciones reales de variable real expresables en la forma

p(x) = a0 + a1x+ · · ·+ anxn

en donde a0, a1, ..., an son números reales. Demostrar que S es un subespaciodel espacio vectorial real de todas las funciones reales de variable real.Solución: Es claro que S 6= ∅. Sean

p(x) = a0 + a1x+ · · ·+ anxn

Page 23: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.5. SUBESPACIOS VECTORIALES 11

yq(x) = b0 + b1x+ · · ·+ bnx

n

Entonces,

(p+ q)(x) = p(x) + q(x) =

= (a0 + b0) + (a1 + b1)x+ · · ·+ (an + bn)xn

y

(λp)(x) = λp(x) =

= (λa0) + (λa1)x+ · · ·+ (λan)xn

tienen la forma adecuada para afirmar que p+ q y λp están en S. Por consigu-iente, S es un subespacio vectorial.

Ejemplo 17 Recuérdese que si f y g son funciones continuas y λ es una con-stante real, entonces f + g y λf son funciones continuas. Se concluye, pues,que el conjunto de todas las funciones continuas es un subespacio del espaciovectorial real de todas las funciones reales de variable real.

Ejemplo 18 Consideremos un sistema lineal de m ecuaciones con n incógnitas:

a11x1 + a12x2 + · · · + a1nxn = b1a21x1 + a22x2 + · · · + a2nxn = b2...

......

...am1x1 + am2x2 + · · · + amnxn = bm

o bien, en notación matricial, Ax = b, siendo

A =

a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

y

x =

x1x2...xn

y b =

b1b2...bm

Se dice que un vector columna de Rn

s =

s1s2...sn

Page 24: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

12 CAPÍTULO 1. ESPACIOS VECTORIALES

es un vector solución del sistema si x1 = s1, x2 = s2, ..., xn = sn es una soluciónde tal sistema. Demostrar que el conjunto de vectores solución de un sistemahomogéneo es un subespacio de Rn. Un sistema lineal se llama homogéneo sitodos sus términos independientes son nulos, es decir, b1 = · · · = bm = 0.Solución: Sea Ax = 0 un sistema lineal homogéneo de m ecuaciones con n

incógnitas, S el conjunto de vectores solución, y s y t vectores de S. Puesto ques y t son vectores solución del sistema, se tiene

As = 0 y At = 0

Por tanto,A(s+ t) = As+At = 0+ 0 = 0

yA (λs) = λ (As) = λ0 = 0

De donde, s + s0 y λs satisfacen la ecuación Ax = 0. Por tanto, s + s0 y λsson vectores solución y, en consecuencia, S es un subespacio vectorial que eshabitual denominarlo subespacio solución del sistema Ax = 0.

1.6. Intersección de subespacios vectorialesTeorema 4 La intersección S ∩T de dos subespacios cualesquiera S y T de unespacio vectorial E es también un subespacio de E.Demostración: La intersección S ∩ T se define como el conjunto de todos loselementos que pertenecen simultáneamente a S y T . Si u,v ∈ S ∩ T, entoncesu,v ∈ S y u,v ∈ T. Al ser ambos subespacios, se tiene u+ v ∈ S y u+ v ∈ Ty por tanto u + v ∈ S ∩ T. Análogamente, todo múltiplo escalar λu estará enS ∩ T siempre que lo esté u.Observación 5 Hacemos las siguientes observaciones:

1. Dados dos subespacios S y T de E, S∩T es el mayor subespacio contenidoen los dos.

2. En general, si F es una familia cualquiera de subespacios vectoriales deE, se demuestra del mismo modo que\

F∈FF

es también un subespacio vectorial de E.

Ejemplo 19 Determinar la intersección de los subespacios vectoriales

S =©(x, y, z) ∈ R3 : x− 2y + z = 0

ªT =

©(x, y, z) ∈ R3 : x = 0ª

de R3.

Page 25: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.7. SUBESPACIO ENGENDRADO POR UN SUBCONJUNTO 13

Solución: Obsérvese que S y T son subespacios vectoriales de R3 porqueambos están definidos por ecuaciones lineales homogéneas. Cualquier vector deS es solución de la ecuación lineal

x− 2y + z = 0

Del mismo modo, cualquier vector de T es solución de la ecuación lineal

x = 0

Entonces, cualquier vector (x, y, z) ∈ S ∩ T debe ser solución del sistemax− 2y + z = 0

x = 0

¾es decir,

S ∩ T = ©(x, y, z) ∈ R3 : −2y + z = 0 y x = 0ª

1.7. Subespacio engendrado por un subconjuntoDefinición 3 Dado un subconjunto no vacío A de E, se llama subespacioengendrado por A al menor de los subespacios vectoriales de E que contienena A. Denotamos por hAi el subespacio engendrado por A.Observación 6 Hacemos las siguientes observaciones:

1. Dicho de otro modo, hAi es el subconjunto de E que cumple:a) hAi es un subespacio vectorial de Eb) A ⊂ hAic) Si S es un subespacio vectorial de E tal que A ⊂ S, entonces debe

cumplirse que hAi ⊂ S.2. Es evidente que si S es un subespacio vectorial de E, entonces el subespacio

engendrado por S es el mismo S.

Teorema 5 Dado un subconjunto no vacío A de E, se cumple

hAi =\F∈F

F

donde F es la familia (no vacía, pues E pertenece a la familia) de todos lossubespacios vectoriales de E contienen a A.Demostración: En efecto, si F es la familia de todos los subespacios de E quecontienen A, entonces es claro que \

F∈FF

verifica las tres condiciones indicadas en la última observación.

Page 26: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

14 CAPÍTULO 1. ESPACIOS VECTORIALES

Ejemplo 20 Demostrar que si v es un vector de E y A = {v}, entonces hAi ={λv : λ ∈ K}.Solución: El conjunto {λv : λ ∈ K} es un subespacio de E, ya que

(λv) + (µv) = (λ+ µ)v

yµ(λv) = (µλ)v

Además, v está en dicho conjunto, ya que

v = 1v

Por último, es el menor subespacio que contiene a A por construcción.

1.8. Suma de subespacios vectoriales

Definición 4 Dados dos subespacios vectoriales S y T de E, se llama subespaciosuma de S y T denotado por S + T al subespacio vectorial engendrado por elconjunto S ∪ T . En símbolos

S+ T = hS ∪ T i

Teorema 6 Dados dos subespacios vectoriales S y T de E, entonces el subespa-cio suma cumple

S+ T = {s+ t : s ∈ S, t ∈ T}Demostración: En efecto, si tomamos dos elementos cualesquiera de esta for-ma s1 + t1 y s2 + t2, entonces se tiene

(s1 + t1) + (s2 + t2) = s1 + (t1 + s2) + t2 = (s1 + s2) + (t1 + t2)

que es otro elemento de la misma forma. Además, también tenemos

λ(s+ t) = λs+ λt

Por tanto, el conjunto {s+ t : s ∈ S, t ∈ T} es un subespacio de E. Por otraparte, de la manera como se ha definido es claro que es el menor subespacio quecontiene a S y T, y en consecuencia tenemos lo que queríamos demostrar.

Observación 7 Hacemos las siguientes observaciones importantes:

1. En general, S∪T no es un subespacio vectorial de E. Para probarlo, consid-eremos los subespacios vectoriales S = {(x, 0) : x ∈ R} y T = {(0, y) : y ∈ R}de R2. La suma (1, 0) + (0, 1) = (1, 1) no pertenece a S ni a T.

2. Dados dos subespacios S y T de E, S + T es el menor subespacio quecontiene a ambos.

Page 27: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.8. SUMA DE SUBESPACIOS VECTORIALES 15

Observación 8 Un vector v de S + T puede, en general, descomponerse devarias maneras en la forma s+ t. Si

v = s1 + t1 = s2 + t2

entoncesw = s1 − s2 = t2 − t1

y el vector w obtenido de esta forma, que pertenece a S y T, también pertenecea su intersección. Recíprocamente, cualquiera que sea w ∈ S ∩ T, se tiene

v = s+ t = (s+ x) + (t− x)Esta observación justifica la proposición y definición siguientes.

Teorema 7 Dados dos subespacios vectoriales S y T de un espacio vectorial E,entonces las tres condiciones siguientes son equivalentes:

1. La descomposición de todo vector v de S+T en suma de un vector s de Sy de un vector t de T es única

2. Si s+ t = 0, con s ∈ S y t ∈ T, se cumple que s = t = 03. S ∩ T = {0}Demostración: (1) implica (2). Dado que podemos escribir

s+ t = 0+ 0

se deduce s = t = 0.(2) implica (3). Supongamos que v ∈ S ∩ T, podemos escribir

0 = v+ (−v)donde v ∈ S y −v ∈ T. De (2) se deduce v = 0.(3) implica (1). Supongamos que tenemos un vector v de S+T expresado de

dos manerasv = s1 + t1 = s2 + t2

entoncess1 − s2 = t2 − t1 = 0

pues s1 − s2 = t2 − t1 es un vector de S ∩ T que por hipótesis debe ser 0.Definición 5 Dados dos subespacios vectoriales S y T de un espacio vectorialE. Si S ∩ T = {0}, entonces se dice que la suma de subespacios S + T es unasuma directa y la designamos con la notación

S⊕ TObservación 9 Hacemos las observaciones siguientes:

Page 28: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

16 CAPÍTULO 1. ESPACIOS VECTORIALES

1. A veces se dice que dos subespacios S y T de un espacio vectorial E sonindependientes cuando S ∩ T = {0}. En tal caso, su suma es directa.

2. En general, si S1, ...,Sm es una familia finita de subespacios de E, su sumase define como sigue

nXi=1

Si = S1 + · · ·+ Sm =(

mXi=1

vi : vi ∈ Si)

que es un subespacio de E. La suma es directa, denotándose pornMi=1

Si = S1 ⊕ · · ·⊕ Sm

si la descomposición de un vector de este subespacio sólo es posible de unamanera. Para ello es necesario y suficiente que la igualdad

mXi=1

vi = 0

se verifique únicamente escogiendo todos los vectores vi nulos.

Definición 6 Se dice que S1 y S2 son dos subespacios suplementarios deE si todo vector v de E puede escribirse de manera única en la forma

v = v1 + v2

en donde v1 ∈ S1 y v2 ∈ S2.Corolario 1 Dos subespacios vectoriales S1 y S2 de E son suplementarios si ysólo si

E = S1 ⊕ S2Observación 10 Hacemos las siguientes observaciones importantes:

1. Cuando se cumpleE = S1 ⊕ S2

En tal caso se dice que S1(resp. S2) es un suplementario de S2 (resp. S1)respecto a E. En tal caso, cualquier vector v de E puede escribirse demanera única en la forma

v = v1 + v2

en donde v1 ∈ S1 y v2 ∈ S2.2. Es natural plantearse dos preguntas: si S1 es un subespacio de E, ¿existe un

suplementario S2 de S1 respecto a E, y, si existe, es único? La respuesta ala segunda pregunta es negativa, según el teorema 21, pero más adelantetenemos el corolario 9. Respecto a la primera, la respuesta es afirmativasegún el mismo teorema.

Page 29: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.8. SUMA DE SUBESPACIOS VECTORIALES 17

3. No hay que confundir suplementario del subespacio S respecto a E con elcomplementario del conjunto S respecto a E. En este último caso, no esun subespacio de E ya que no contiene el 0.

Ejemplo 21 En R3 se consideran los subespacios S y T engendrados por losconjuntos {(2, 3, 0), (3, 1, 2)} y {(1,−2, 2)} respectivamente. Determinar el sube-spacio S+ T y averiguar si es suma directa.Solución: Según el teorema, un vector (x, y, z) de S + T es de la forma

(x, y, z) = λ(2, 3, 0) + µ(3, 1, 2) + δ(1,−2, 2)Efectuando operaciones, se obtiene

(x, y, z) = (2λ+ 3µ+ δ, 3λ+ µ− 2δ, 2µ+ 2δ)Igualando componentes, se tiene

E1 : x = 2λ+ 3µ+ δE2 : y = 3λ+ µ− 2δE3 : z = 2µ+ 2δ

De aquí se obtiene

3E1 − 2E2 : 3x− 2y = 7µ+ 7δE3 : z = 2µ+ 2δ

¾De aquí se obtiene

2(3E1 − 2E2)− 7E3 : 6x− 4y − 7z = 0Por consiguiente

S + T = {(x, y, z) ∈ R3 : 6x− 4y − 7z = 0}Para saber si la suma es directa debemos averiguar si los subespacios son o noindependientes. Para ello, debemos calcular S ∩ T . Un vector (x, y, z) de S ∩ Tdebe cumplir

(x, y, z) = α(2, 3, 0) + β(3, 1, 2)

y(x, y, z) = γ(1,−2, 2)

Por tanto,α(2, 3, 0) + β(3, 1, 2) = γ(1,−2, 2)

es decir(2α+ 3β, 3α+ β, 2β) = (γ,−2γ, 2γ)

de donde se obtiene2α+ 3β = γ

3α+ β = −2γ2β = 2γ

Page 30: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

18 CAPÍTULO 1. ESPACIOS VECTORIALES

Se tiene β = γ. Por tanto, α = −β = −γ. Tomando γ = 1, se obtiene(1,−2, 2) = −(2, 3, 0) + (3, 1, 2)

lo que significa que(1,−2, 2) ∈ S ∩ T

Por consiguiente,S ∩ T 6= {0}

y la suma no es directa.

1.9. Combinaciones linealesDefinición 7 Se llama sistema de vectores de E a cualquier sucesión finita Sde vectores de E. De este modo, S = (v1,v2, ...,vm), con vi ∈ E (i = 1, ...,m),es un sistema de vectores de E.

Observación 11 Se ha de tener cuidado en no confundir el sistema de vectores(v1,v2, ...,vm) con el conjunto {v1,v2, ...,vm} cuyos elementos son los vectoresdel sistema. Por ejemplo, el sistema (1, 1, 1) de vectores de R tiene como con-junto de vectores {1}; y los sistemas distintos (1, 2, 3) y (2, 1, 3) de R tienen elmismo conjunto de vectores {1, 2, 3}.Cuando escribamos ”sistema de vectores” nos referiremos a la sucesión finita

de vectores. En cambio, cuando escribamos ”vectores del sistema” nos referire-mos al conjunto de los vectores de la sucesión.

Definición 8 Dado un sistema S = (v1,v2, ...,vm) de vectores de E. Se diceque un vector v de E es combinación lineal de los vectores del sistema S siexiste una sucesión finita (λ1, λ2, ..., λm) de elementos de K tales que

v = λ1v1 + λ2v2 + · · ·+ λmvm

Los escalares λi (i = 1, ...,m) se denominan coeficientes de la combinaciónlineal.También se dice entonces, que el vector v depende linealmente de los

vectores del sistema S.Observación 12 Más en general, si S = (vi)i∈I es una familia cualquiera(finita o no) de vectores de E, se dice que un vector v de E es combinaciónlineal de los vectores de la familia S si existe una familia (λi)i∈I de elementosde K tales que sólo un número finito de los escalares λi son no nulos y

v =Xi∈I

λivi

Obsérvese que si J ⊂ I, J es finito y tal que λi = 0 para todo i ∈ I − J,entonces X

i∈Iλivi =

Xi∈J

λivi

Page 31: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.9. COMBINACIONES LINEALES 19

Es evidente que el valor del segundo miembro de la igualdad anterior no dependede J (con tal que J satisfaga las condiciones enunciadas). Como consecuenciatenemos que un vector v de E es combinación lineal de los vectores de la familia(vi)i∈I si lo es de una subfamilia finita de (vi)i∈I .

Teorema 8 Se deducen inmediatamente de la definición los siguientes resulta-dos:

1. El vector 0 es combinación lineal de los vectores de cualquier sistema.

2. Todo vector es combinación lineal de los vectores de cualquier sistema quelo contiene.

3. Si v es combinación lineal de los vectores del sistema (v1,v2, ...,vm) y sicada vi (i = 1, 2, ...,m) es combinación lineal de los vectores del sistema(w1,w2, ...,wp), el vector v es combinación lineal de de los vectores delsistema (w1,w2, ...,wp).

Demostración: (1.) Es suficiente elegir todos los coeficientes nulos.(2.) En efecto,

v = 1v

y, si hay otros vectores, los afectamos a todos de coeficientes nulos.(3.) Si

vi =

pXj=1

µijwj

yv = λ1v1 + λ2v2 + · · ·+ λmvm

entonces, por sustitución y reglas de cálculo, tenemos

v = λ1

pXj=1

µ1jwj

+ λ2

pXj=1

µ2jwj

+ · · ·+ λm

pXj=1

µmjwj

=

ÃmXk=1

λkµk1

!w1 +

ÃmXk=1

λkµk2

!w2 + · · ·+

ÃmXk=1

λkµkp

!wp

Observación 13 Este último resultado se expresa también así: si v dependelinealmente de los vectores v1,v2, ...,vm, y cada uno de estos depende lineal-mente de w1,w2, ...,wp, el vector v depende linealmente de estos últimos. Poresta razón, este resultado se le conoce como propiedad transitiva de la depen-dencia lineal.

Ejemplo 22 Consideremos los vectores u = (1, 2,−1) y v = (6, 4, 2) de R3.Demostrar que w = (9, 2, 7) es combinación lineal de u y v, y que, en cambio,w0 = (4,−1, 8) no es combinación lineal de u y v.

Page 32: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

20 CAPÍTULO 1. ESPACIOS VECTORIALES

Solución: Para que w sea una combinación lineal de u y v, deben existirlos escalares λ1 y λ2 tales que w = λ1u+ λ2v, es decir,

(9, 2, 7) = λ1(1, 2,−1) + λ2(6, 4, 2)

o bien,(9, 2, 7) = (λ1 + 6λ2, 2λ1 + 4λ2,−λ1 + 2λ2)

Al igualar las componentes correspondientes, se obtiene el sistema siguiente

λ1 + 6λ2 = 92λ1 + 4λ2 = 2−λ1 + 2λ2 = 7

Si se resuelve este sistema, se obtiene la solución λ1 = −3 y λ2 = 2. De estemodo, tenemos

w = −3u+ 2vDel mismo modo, para que w0 sea una combinación lineal de u y v deben

existir λ1 y λ2 tales que

(4,−1, 8) = λ1(1, 2,−1) + λ2(6, 4, 2)

o bien,(4,−1, 8) = (λ1 + 6λ2, 2λ1 + 4λ2,−λ1 + 2λ2)

Igualando componentes, se obtiene

λ1 + 6λ2 = 42λ1 + 4λ2 = −1−λ1 + 2λ2 = 8

Este sistema de ecuaciones es incompatible, de modo que no existen esos es-calares. Como consecuencia, w0 no es una combinación lineal de u y v.

1.10. Clausura linealDefinición 9 Se llama clausura lineal del sistema S = (v1,v2, ...,vm) alconjunto de todos los vectores de E que son combinación lineal de los vectoresde S. Denotamos este conjunto por hv1,v2, ...,vmi.Teorema 9 La clausura lineal de cualquier sistema es un subespacio vectorialde E.Demostración: En efecto, de las relaciones siguientes

(λ1v1 + · · ·+ λmvm) + (µ1v1 + · · ·+ µmvm) = (λ1 + µ1)v1 + · · ·+ (λm + µm)vm

δ(λ1v1 + · · ·+ λmvm) = (δλ1)v1 + · · ·+ (δλm)vmse deduce inmediatamente lo que queremos demostrar.

Page 33: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.10. CLAUSURA LINEAL 21

Definición 10 Un subespacio vectorial S de E se dice que está engendradopor el sistema S = (v1,v2, ...,vm) si S es la clausura lineal del sistema, esdecir, si se cumple

S = hv1,v2, ...,vmiTambién se dice que S es un sistema generador del subespacio S.Teorema 10 La clausura lineal de un sistema es el menor subespacio vectorialque contiene al conjunto de los vectores del sistema.Demostración: Dado un sistema cualquiera S = (v1,v2, ...,vm). Sea A ={v1,v2, ...,vm} el conjunto de los vectores de S. Por el teorema anterior laclausura lineal es un subespacio vectorial de E. Para cualquier vi ∈ A (i =1, ...,m) se cumple

vi = 0v1 + · · ·+ 1vi + · · ·+ 0vmcon lo que A está contenido en la clausura lineal de S. Si S es cualquier subespa-cio de E que contiene A, entonces cualquier combinación lineal de los vectoresde A es claramente otro vector de S. Por tanto, la clausura lineal de S está con-tenido en S y, en consecuencia, es el menor subespacio vectorial que contiene aA.

Observación 14 Las nociones y propiedades anteriores pueden ampliarse alcaso de una familia cualquiera (vi)i∈I , finita o no, de vectores de E. Se llamaclausura lineal de una familia (vi)i∈I al menor subespacio vectorial que la con-tiene. Puede demostrarse, sin ninguna dificultad, que dicha clausura lineal es laintersección de la familia de subespacios que contienen al conjunto de vectoresde la familia en consideración. Finalmente, se demuestra que dicha clausuralineal es el subespacio de las combinaciones lineales de cada subfamilia finita de(vi)i∈I .

Ejemplo 23 Dado el sistema (e1, e2, e3) de vectores de R3, siendo e1 = (1, 0, 0), e2 =(0, 1, 0) y e3 = (0, 0, 1). Determinar la clausura lineal de este sistema.Solución: Es claro que he1, e2, e3i ⊂ R3. Por otra parte, tenemos que todo

vector (x, y, z) de R3 se puede escribir como

(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)

es decir,(x, y, z) = xe1 + ye2 + ze3

lo cual es una combinación lineal de e1, e2 y e3. Por tanto, he1, e2, e3i = R3.Ejemplo 24 Los polinomios 1, x, x2, ..., xn engendran al espacio vectorial Rn [x](véase ejemplo 6), pues cualquier polinomio p(x) de Rn [x] se puede escribircomo

p(x) = a0 + a1x+ a2x2 + · · ·+ anx

n

lo cual es una combinación lineal de 1, x, x2, ..., xn.

Page 34: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

22 CAPÍTULO 1. ESPACIOS VECTORIALES

Ejemplo 25 Determinar si v1 = (1, 1, 2),v2 = (1, 0, 1),v3 = (2, 1, 3) engen-dran R3.Solución: Es suficiente determinar si un vector arbitrario v = (x, y, z) de

R3 se puede escribir como una combinación lineal de v1,v2 y v3v = λ1v1 + λ2v2 + λ3v3

Si expresamos esta ecuación en términos de componentes, se tiene

(x, y, z) = λ1(1, 1, 2) + λ2(1, 0, 1) + λ3(2, 1, 3)

o bien,(x, y, z) = (λ1 + λ2 + 2λ3, λ1 + λ3, 2λ1 + λ2 + 3λ3)

o bien,λ1 + λ2 + 2λ3 = xλ1 + λ3 = y2λ1 + λ2 + 3λ3 = z

Por consiguiente, el problema se reduce a determinar si este sistema es o nocompatible para todos los valores de x, y y z. Aunque más adelante daremosmétodos más operativos para resolver estas cuestiones, de momento nos con-tentamos con afirmar que el vector (1, 0, 0) de R3 no es una combinación linealde v1,v2 y v3. En efecto, puede comprobarse que el sistema siguiente

λ1 + λ2 + 2λ3 = 1λ1 + λ3 = 02λ1 + λ2 + 3λ3 = 0

es incompatible. Por consiguiente, los vectores v1,v2 y v3 engendran un sube-spacio vectorial distinto de R3.

Ejemplo 26 ¿Podemos determinar x de manera que el vector (−1, 2, 5, x) pertenez-ca al subespacio de Q4 engendrado por (4,−2, 1, 7) y (1, 0, 2, 4)?Solución: Para que (−1, 2, 5, x) ∈ h(4,−2, 1, 7), (1, 0, 2, 4)i deben existir dos

escalares λ1 y λ2 de Q tales que

(−1, 2, 5, x) = λ1(4,−2, 1, 7) + λ2(1, 0, 2, 4)

o bien,(−1, 2, 5, x) = (4λ1 + λ2,−2λ1, λ1 + 2λ2, 7λ1 + 4λ2)

Igualando componentes, se tiene

4λ1 + λ2 = −1−2λ1 = 2

λ1 + 2λ2 = 57λ1 + 4λ2 = x

De las dos primeras ecuaciones del sistema se obtiene λ1 = −1 y λ2 = 3.Estos valores satisfacen también la tercera ecuación del sistema. Por tanto, debeocurrir

x = −7 + 12 = 5

Page 35: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.11. SISTEMAS EQUIVALENTES 23

1.11. Sistemas equivalentesDefinición 11 Se dice que dos sistemas (v1, ...,vm) y (w1, ...,wp) de E sonequivalentes, denotándolo por (v1, ...,vm) ∼ (w1, ...,wp), cuando sus clausuraslineales son iguales, es decir, cuando

hv1, ...,vmi = hw1, ...,wpiTeorema 11 Dos sistemas son equivalentes si y sólo si todo vector de cadasistema es combinación lineal de los vectores del otro.Demostración: Es inmediato a partir de la definición de clausura lineal de unsistema.

Observación 15 Es fácil demostrar también que la relación definida anterior-mente es de equivalencia.

Teorema 12 La clausura lineal de un sistema no cambia cuando se añadennuevos vectores al sistema que sean combinación lineal de los primeros.Demostración: Dado un sistema de vectores (v1, ...,vm), si

w =mXi=1

λivi

entonceshv1, ...,vm,wi = hv1, ...,vmi

pues

µ1v1 + · · ·+ µmvm + µw = µ1v1 + · · ·+ µmvm +mXi=1

λivi

= (µ1 + λ1)v1 + · · ·+ (µm + λm)vm

y por otra parte

µ1v1 + · · ·+ µmvm = µ1v1 + · · ·+ µmvm + 0w

así con cualquier otro vector añadido.

Observación 16 Hacemos las siguientes observaciones:

1. Del teorema anterior se sigue de forma inmediata que

(v1, ...,vm,w) ∼ (v1, ...,vm)si w es combinación lineal de v1, ...,vm.

2. Después de este resultado, cabe preguntarse en seguida si será posible en-contrar un sistema de vectores equivalente con un número menor de vec-tores. Resolveremos esta cuestión al estudiar la independencia lineal devectores.

Page 36: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

24 CAPÍTULO 1. ESPACIOS VECTORIALES

Definición 12 A continuación definimos ciertas transformaciones que apli-cadas sobre un sistema de vectores proporcionan sistemas equivalentes. Estasoperaciones se llaman transformaciones elementales y son las siguientes:

T1: Permutar dos vectores cualesquiera

(v1, ...,vi, ...,vj , ...vm) ∼ (v1, ...,vj , ...,vi, ...vm) (i 6= j)

T2: Multiplicar un vector cualquiera por un escalar λ distinto de cero

(v1, ...,vi, ...vm) ∼ (v1, ..., λvi, ...vm)

T3: Sumar a un vector cualquiera un múltiplo escalar de otro vector

(v1, ...,vi, ...,vj , ...vm) ∼ (v1, ...,vi + λvj , ...,vj , ...vm) (i 6= j)

Teorema 13 La clausura lineal de los vectores de un sistema no cambia some-tiendo el sistema a una o varias transformaciones elementales.Demostración: Supongamos que el sistema S 0 = (w1, ...,wm) es el resulta-do de aplicar una de las transformaciones elementales sobre el sistema dadoS = (v1, ...,vm). Se trata de probar que hw1, ...,wmi = hv1, ...,vmi, o lo que eslo mismo, que S ∼ S 0. Probaremos que todo vector v, combinación lineal del sis-tema (v1, ...,vm), es también combinación lineal del nuevo sistema (w1, ...,wm).Si S 0 se obtiene de S por T1, entonces esto es evidente por la conmutatividad

de la suma, pues los wj son idénticos a los vi, salvo el orden.Si S 0 se obtiene de S por T2, entonces reemplazamos vi por wi = λvi (λ 6=

0), sin modificar los restantes vectores. Entonces se tiene

v = λ1v1 + · · ·+ λivi + · · ·+ λmvm

= λ1w1 + · · ·+ λiλwi + · · ·+ λmwm

Si S 0 se obtiene de S por T3, entonces reemplazamos vi por wi = vi +λvj (i 6= j), sin modificar los otros vectores. Entonces se tiene

v = λ1v1 + · · ·+ λivi + · · ·+ λmvm

= λ1w1 + · · ·+ λiwi + · · ·+ (λj − λiλ)wj + · · ·+ λmwm

Por otra parte, las transformaciones elementales son reversibles, ya que lasoperaciones inversas son del mismo tipo. Por tanto, los sistemas S y S 0 son,pues, equivalentes. Además, la transitividad de la relación ∼ demuestra que unasucesión de transformaciones (tal que cada una opera sobre el sistema que resultade la precedente) aplica un sistema a otro de equivalente.

Ejemplo 27 Demostrar que los sistemas S = (v1,v2) y S 0 = (w1,w2) deR3 son equivalentes,siendo v1 = (1, 1, 2),v2 = (0, 1, 1),w1 = (1, 0, 1) y w2 =(2,−1, 1).

Page 37: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.12. DEPENDENCIA E INDEPENDENCIA LINEAL 25

Solución: Para ello, aplicaremos transformaciones elementales a S hastaobtener S 0. Aplicando T3, se obtiene

(v1,v2) ∼ (v1 − v2,v2)

Ahora, aplicando T2,

(v1 − v2,v2) ∼ (v1 − v2,−v2)

Finalmente, aplicando T3,

(v1 − v2,−v2) ∼ 5(v1 − v2,−v2 + 2(v1 − v2))

Por la transitividad de la relación se deduce

(v1,v2) ∼ (v1 − v2,−v2 + 2(v1 − v2))

es decir,w1 = v1 − v2

yw2 = −v2 + 2(v1 − v2)

Por consiguiente, S y S 0 son equivalentes.

1.12. Dependencia e independencia lineal

Definición 13 Diremos que el sistema de vectores (v1, ...,vm) de un espaciovectorial E es ligado cuando existe una sucesión finita (λ1, ..., λm) de elementosde K, no todos nulos, tales que

λ1v1 + · · ·+ λmvm = 0

Cuando el sistema de vectores (v1, ...,vm) de E es ligado, también se diceque los vectores v1, ...,vm del sistema son linealmente dependientes, y larelación

λ1v1 + · · ·+ λmvm = 0

en donde no todos los coeficientes son nulos, se llama una relación de depen-dencia de dichos vectores.

Teorema 14 Señalemos algunas consecuencias inmediatas de la definición:

1. Todo sistema que incluya el vector 0 es ligado.

2. Si se añaden otros vectores a un sistema ligado, el sistema que resulta estambién ligado.

3. Todo sistema que incluya dos vectores iguales es ligado.

Page 38: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

26 CAPÍTULO 1. ESPACIOS VECTORIALES

4. El sistema (v1, ...,vm), con v1 6= 0, es ligado si y sólo si alguno de susvectores es combinación lineal de los que le preceden.

5. Para que un sistema sea ligado es necesario y suficiente que exista unsubsistema propio equivalente al sistema considerado.

Demostración: (1.) Consiste en elegir todos los coeficientes iguales a cero,salvo el del vector 0.(2.) Consiste en elegir, por ejemplo, los coeficientes nulos para los nuevos

vectores.(3.) Supongamos el sistema (v1, ...,vm) en el que para ciertos i, j, con i 6= j

y 1 ≤ i < j ≤ m, se cumple vi = vj. Entonces, es claro que

0v1 + · · ·+ 1vi + · · ·+ (−1)vj + · · ·+ 0vm = 0

lo que significa que el sistema considerado es ligado.(4.) Si el sistema (v1, ...,vm) de E es ligado, entonces existe una sucesión

finita de escalares (λ1, ..., λm), no todos nulos, tales que

λ1v1 + · · ·+ λmvm = 0

De estos λi no nulos, escogemos el que tiene el mayor subíndice. Sea k = max{i :λi 6= 0}. Se cumple que k > 1, pues de lo contrario se tendría λ1v1 = 0, y comopor hipótesis v1 6= 0, se deduciría que λ1 = 0, lo que no es posible. Entoncestenemos

λ1v1 + · · ·+ λkvk = 0

y λk 6= 0. De esta última relación se obtiene

vk = −λ1λkv1 − · · ·− λk−1

λkvk−1

es decir, podemos expresar vk como combinación lineal de los vectores que lepreceden v1, ...,vk−1.Recíprocamente, si existe vk con 1 ≤ k ≤ m tal que

vk = µ1v1 + · · ·+ µk−1vk−1

entonces

−µ1v1 − · · ·− µk−1vk−1 + 1vk + 0vk+1 + · · ·+ 0vm = 0

lo que significa que el sistema (v1, ...,vm) es ligado.Con una demostración análoga se deduciría el teorema que resulta de susti-

tuir la hipótesis v1 6= 0 por vm 6= 0, y la palabra ”preceden” por ”siguen”.(5.) Si el sistema (v1, ...,vm) de E es ligado, entonces existe una sucesión

finita de escalares (λ1, ..., λm), no todos nulos, tales que

λ1v1 + · · ·+ λmvm = 0

Page 39: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.12. DEPENDENCIA E INDEPENDENCIA LINEAL 27

Supongamos que λi 6= 0, entonces se tieneλ1λiv1 + · · ·+ 1vi + · · ·+ λm

λivm = 0

de donde

vi = −λ1λiv1 − · · ·− λm

λivm

es decir, vi es combinación lineal de los vectores v1, ...,vi−1,vi+1, ...,vm. En-tonces, por sucesivas aplicaciones de T1, se tiene

(v1, ...,vi, ...,vm) ∼ (v1, ...,vi−1,vi+1, ...,vm,vi)

y, por el teorema 10, se tiene

(v1, ...,vi−1,vi+1, ...,vm,vi) ∼ (v1, ...,vi−1,vi+1, ...,vm)

Por tanto,(v1, ...,vi, ...,vm) ∼ (v1, ...,vi−1,vi+1, ...,vm)

Repitiendo el proceso con cada λi 6= 0, se obtendrá un subsistema equivalente aloriginal.El recíproco es evidente, pues si el sistema dado es equivalente a un subsis-

tema suyo, cualquier vector de este último es combinación lineal de los vectoresdel sistema y, en consecuencia, el sistema es ligado.

Observación 17 Del último resultado del teorema anterior se sigue que el sis-tema que se obtiene por eliminación de todos aquellos vectores que en la relación

λ1v1 + · · ·+ λmvm = 0

tengan coeficiente distinto de cero, es equivalente al sistema original.

Definición 14 Diremos que el sistema (v1, ...,vm) de vectores de un espaciovectorial E es libre cuando no es ligado.Cuando el sistema de vectores (v1, ...,vm) de E es libre, también se dice que

los vectores v1, ...,vm del sistema son linealmente independientes.

Observación 18 Dicho de otro modo, para que un sistema (v1,v2, ...,vm) sealibre es necesario y suficiente que la relación

λ1v1 + · · ·+ λmvm = 0

se cumpla sólo si todos los coeficientes λi son nulos; la única combinación nulade los vectores del sistema corresponde a elegir todos los coeficientes nulos.

Teorema 15 Señalemos algunas consecuencias inmediatas de la definición:

1. Un vector v no nulo constituye por sí solo un sistema libre.

Page 40: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

28 CAPÍTULO 1. ESPACIOS VECTORIALES

2. Todos los vectores de un sistema libre son distintos de 0.

3. Todos los vectores de un sistema libre son dos a dos distintos.

4. Todo subsistema de un sistema libre es también libre.

5. En la clausura lineal de un sistema libre, todo vector puede escribirse demanera única como combinación lineal de los vectores del sistema.

6. Si el sistema (v1, ...,vm) es libre, mientras que el sistema (v1, ...,vm,w),obtenido añadiéndole un vector, es ligado, entonces el vector w es combi-nación lineal de los vectores v1, ...,vm.

Demostración: (1.) En efecto,

λv = 0 =⇒ λ = 0

pues la igualdad v = 0 queda excluida.(2.) Pues cualquier sistema que contiene al vector 0 es ligado.(3.) Pues cualquier sistema que contiene dos vectores iguales es ligado.(4.) En efecto, si el nuevo sistema fuera ligado, añadiéndole otros vectores

seguiría siendo un sistema ligado.(5.) Supongamos que el sistema (v1, ...,vm) es libre. Sea v ∈ hv1, ...,vmi y

supongamos que v pudiera escribirse de dos maneras:

v = λ1v1 + · · ·+ λmvm = µ1v1 + · · ·+ µmvm

Entonces, se tendría

(λ1 − µ1)v1 + · · ·+ (λm − µm)vm = 0

y por ser independientes los vectores vi se tendría que

λi − µi = 0 (i = 1, ...,m)

En consecuencia, las dos descomposiciones coinciden.(6.) Por ser el sistema (v1, ...,vm,w) ligado, tendremos la siguiente relación

linealλ1v1 + · · ·+ λmvm + µw = 0

en donde µ 6= 0 ya que el sistema (v1, ...,vm) es libre. Por consiguiente podemosdespejar w, lo que demuestra la afirmación.

Observación 19 Hacemos las observaciones siguientes:

1. Del teorema 7 y del teorema 15 (5) se deduce inmediatamente el re-sultado siguiente: si el sistema (v1, ...,vm) es libre, entonces

hv1, ...,vmi = hv1i⊕ · · ·⊕ hvmi

Page 41: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.12. DEPENDENCIA E INDEPENDENCIA LINEAL 29

2. Las nociones de dependencia e independencia lineal se generalizan paracualquier familia (vi)i∈I de vectores de E. Una familia (vi)i∈I de vectoresde E se dirá libre si lo es toda subfamilia finita. Una familia se llamaráligada si no es libre. Esto significa que al menos hay una subfamilia finitaque no es libre.

Teorema 16 Si el espacio vectorial E es engendrado por el sistema (v1, ...,vm),y E contiene k vectores linealmente independientes, entonces k ≤ m.Demostración: Supongamos que w1, ...,wk son vectores linealmente indepen-dientes de E. Es claro que el sistema (w1,v1, ...,vn) es generador de E. Puestoque E = hv1, ...,vmi, w1 es combinación lineal de v1, ...,vm. Por tanto, (w1,v1, ...,vn)es ligado, y por el teorema 14 (4) existe un vector que es combinación linealde los precedentes, que no es w1 pues w1 6= 0 (por pertenecer a un sistemalibre); sea dicho vector vi. Suprimiéndolo obtenemos otro sistema generadorequivalente, es decir,

E = hv1, ...,vi, ...,vni = hw1,v1, ...,vi−1,vi+1, ...,vmiTambién será generador el sistema (w2,w1,v1, ...,vi−1,vi+1, ...,vm) que a suvez es ligado. Volviendo a aplicar el teorema 14 (4) podemos suprimir otrovector vj, que no es w2 ni w1 porque (w1,w2) es un sistema libre. Repitiendoeste proceso resulta que, si fuese k > n, el sistema (wn, ...,w1) sería generador,y en consecuencia, (wn+1,wn...,wk) sería ligado, contra la hipótesis.

Ejemplo 28 Demostrar que dos vectores de un espacio vectorial E son lineal-mente dependientes si uno es un múltiplo escalar del otro.Solución: Sean u,v dos vectores linealmente dependientes de E. Entonces

existe una relación de dependencia de dichos vectores

λ1v1 + λ2v2 = 0

con algún λi 6= 0. Supongamos que λ1 6= 0, entonces

1v1 +λ2λ1v2 = 0

de donde

v1 = −λ2λ1v2

con lo que v1 es múltiplo escalar de v2.

Ejemplo 29 Determinar si el sistema (v1,v2,v3) de R3 es o no libre, siendov1 = (1, 2, 3),v2 = (0, 1, 2),v3 = (−2, 0, 1).Solución: Supongamos que

λ1v1 + λ2v2 + λ3v3 = 0

Introduciendo sus componentes, se tiene

λ1(1, 2, 3) + λ2(0, 1, 2) + λ3(−2, 0, 1) = (0, 0, 0)

Page 42: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

30 CAPÍTULO 1. ESPACIOS VECTORIALES

o bien(λ1 − 2λ3, 2λ1 + λ2, 3λ1 + 2λ2 + λ3) = (0, 0, 0)

Igualando compoenentes, se obtiene el siguiente sistema:

λ1 − 2λ3 = 02λ1 + λ2 = 0

3λ1 + 2λ2 + λ3 = 0

resolviéndolo, se obtiene, λ1 = 0, λ2 = 0, λ3 = 0. Por tanto, el sistema es libre.

Ejemplo 30 Demostrar que el sistema (1 + x − 2x2, 2 + 5x − x2, x + x2) deR2 [x] es ligado. Escribir una relación de dependencia.Solución: Supongamos que

λ1(1 + x− 2x2) + λ2(2 + 5x− x2) + λ3(x+ x2) = 0

entonces

(λ1 + 2λ2) + (λ1 + 5λ2 + λ3)x+ (−2λ1 − λ2 + λ3)x2 = 0

Por el principio de identidad de polinomios, se obtiene el sistema siguiente:

λ1 + 2λ2 = 0λ1 + 5λ2 + λ3 = 0−2λ1 − λ2 + λ3 = 0

Es fácil comprobar que este sistema es compatible indeterminado y, en conse-cuencia, el sistema es ligado. Sus soluciones son, λ1 = −2λ2, λ2 = λ2, λ3 =−3λ2. Tomando λ2 = −1, se obtiene λ1 = 2 y λ3 = 3. Por tanto,

2(1 + x− 2x2) + (−1)(2 + 5x− x2) + 3(x+ x2) = 0

es una relación de dependencia.

1.13. Bases de un espacio vectorial de dimensiónfinita

Definición 15 Se llama base de un espacio vectorial E a toda familia libre(finita o no) que engendra E.

Definición 16 Se dice que un espacio vectorial E es de dimensión finita siadmite al menos una familia finita que engendra E.

Observación 20 Dicho de otro modo, E es de dimensión finita si existe unfamilia finita (v1, ...,vm) de E tal que

E = hv1, ...,vmi

Page 43: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.13. BASES DE UN ESPACIO VECTORIAL DE DIMENSIÓN FINITA 31

Teorema 17 Todo espacio vectorial E 6= {0} de dimensión finita posee unabase.Demostración: Supongamos que E = hv1, ...,vmi. Si el sistema (v1, ...,vm) eslibre, forman una base y el teorema queda demostrado. En caso contrario, existeal menos un vector vi que es combinación lineal de los otros. Entonces

E = hv1, ...,vmi = hv1, ...,vi−1,vi+1, ...,vmi

Apliquemos de nuevo el mismo razonamiento al nuevo sistema

(v1, ...,vi−1,vi+1, ...,vm)

Si es libre, constituye una base y, si no lo es, suprimimos otro vector, deduciendoun tercer sistema generador. Repitiendo un número finito de veces este proceso,llegaremos a un sistema libre y generador de E, es decir, a una base, o suprim-iremos todos los vectores. Ahora bien, en este segundo caso sería E = h0i = {0},lo que no sería posible por hipótesis.

Observación 21 Hacemos las observaciones siguientes:

1. De la demostración del teorema anterior se deduce de forma inmediata elsiguiente resultado: todo sistema generador de E contiene un subsistemalibre equivalente.

2. En general, se demuestra que todo espacio vectorial (de dimensión finitao no) admite una base.

Teorema 18 Todas las bases de un espacio vectorial E de dimensión finita sonfinitas y tienen el mismo número de vectores.Demostración: Sean B1 y B2 dos bases cualesquiera de E, deducidas o no deun sistema generador (v1, ...,vm) de E. El teorema 16 prueba que cada una deellas tiene un número finito de vectores; n1 para B1 y n2 para B2, con n1 ≤ my n2 ≤ m. Por otra parte, cada base constituye una familia libre y generatriz deE. Consideremos B1 como familia generatriz y B2 como familia libre, por el teo-rema 16, es n2 ≤ n1. Repitiendo de nuevo el mismo razonamiento, cambiandoel papel de las dos bases, se llega a que n1 ≤ n2. Por consiguiente, n1 = n2.

Observación 22 En general, se demuestra que todas las bases de un espaciovectorial (de dimensión finita o no) son equipotentes (de la misma cardinalidad).

Definición 17 El número de vectores de cualquier base finita de un espaciovectorial E se llama dimensión de E y se denota por dimE. Diremos que E esde dimensión infinita si no tiene bases finitas.

Observación 23 El subespacio nulo {0} no posee base alguna, ya que la familia(0) es ligada, pero se admite que:

dim {0} = 0

Page 44: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

32 CAPÍTULO 1. ESPACIOS VECTORIALES

Corolario 2 En un espacio vectorial de dimensión finita, la dimensión coin-cide con el número máximo de vectores linealmente independientes de cualquiersistema libre, y también con el número mínimo de vectores de cualquier sistemagenerador.Demostración: Es una consecuencia inmediata del teorema 16.

Corolario 3 En un espacio vectorial de dimensión finita, toda familia libre deE puede completarse hasta obtener una base.Demostración: Sea (v1, ...,vn) una base y (w1, ...,wk) una familia libre de E,entonces por el teorema 16 se pueden sustituir k vectores vi por los wj demodo que la familia (w1, ...,wk,vi1 , ...,vin−k) sea una base de E.

Corolario 4 Para que un sistema de n vectores sea una base de un espaciovectorial de dimensión n, es suficiente que el sistema sea generador de E o quesea libre.Demostración: Por el corolario 3, cualquier sistema libre de n vectores sepuede completar hasta obtener una base. Ahora bien, todas las bases del espaciotienen n vectores por el teorema 18. Por tanto, el sistema es una base. Porotro lado, cualquier sistema generador de n vectores de un espacio vectorialde dimensión n no es ligada, pues, de lo contrario, por el teorema 14 (5),existiría una subsistema propio generador, lo cual es imposible por el hecho deque el número mínimo de vectores de cualquier sistema generador es n, segúnel corolario 2.

Definición 18 Se llaman coordenadas de un vector v de un espacio vec-torial E respecto a la base (v1, ...,vn) a la única familia finita de escalares(λ1, ..., λn) tales que

v = λ1v1 + · · ·+ λnvn

Observación 24 Esta última definición tiene sentido en virtud del teorema15 (5).

Ejemplo 31 El espacio geométrico ordinario es de tres dimensiones, porque,elegidos tres vectores no coplanarios (no situados en el mismo plano)

−→OA,−−→OB,

−−→OC,

sabemos que todo vector−−→OM puede escribirse como sigue:

−−→OM = λ

−→OA+ µ

−−→OB + ν

−−→OC

Ejemplo 32 El espacio Kn de los vectores que son n− tuplas de elementos Kes de dimensión n. En efecto, consideremos los n vectores siguientes:

e1 = (1, 0, ..., 0)e2 = (0, 1, ..., 0)

...en = (0, 0, ..., 1)

Page 45: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.13. BASES DE UN ESPACIO VECTORIAL DE DIMENSIÓN FINITA 33

de los cuales el i− esimo, ei, tiene componente i− esima igual a 1 y el resto,igual a 0. El (e1, e2, ..., en) es generador de Kn, ya que cualquier vector v =(λ1, λ2, ..., λn) de Kn puede escribirse como sigue:

v = λ1e1 + λ2e2 + · · ·+ λnen

Además, este sistema es libre. En efecto, la relación

λ1e1 + λ2e2 + · · ·+ λnen = 0

sólo es posible si λi = 0 para todo 1 ≤ i ≤ n.La base introducida de esta forma, asociada de manera particularmente sen-

cilla a la definición de Kn se llama base natural.

Ejemplo 33 Probar que los vectores de la familia S, siendo

S = ((2, 1, 1), (1, 3, 1), (−2, 1, 3))

forman una base de R3.Solución: Sabemos que la dimensión de R3 es tres. Por el corolario 2, es

suficiente probar que S es libre. En efecto, supongamos que

λ(2, 1, 1) + µ(1, 3, 1) + ν(−2, 1, 3) = (0, 0, 0)

es decir,(2λ+ µ− 2ν, λ+ 3µ+ ν, λ+ µ+ 3ν) = (0, 0, 0)

Por igualación de sus componentes se obtiene el siguiente sistema:

2λ+ µ− 2ν = 0λ+ 3µ+ ν = 0λ+ µ+ 3ν = 0

cuya solución es ν = 0, λ = 0, µ = 0. Por tanto, S es una base de R3.

Ejemplo 34 Completar la siguiente familia libre (v1,v2,v3) para formar unabase de R4, siendo v1 = (1, 1,−1, 1),v2 = (1, 1, 0, 1),v3 = (1, 2, 1, 1).Solución: Sabemos que la familia (e1, e2, e3, e4) es una base de R4, siendo

e1 = (1, 0, 0, 0), e2 = (0, 1, 0, 0), e3 = (0, 0, 1, 0), e4 = (0, 0, 0, 1). Se tiene

v1 = 1e1 + 1e2 + (−1)e3 + 1e4de donde

e1 = v1 − e2 + e3 − e4Por tanto,

(e1, e2, e3, e4) ∼ (v1, e2, e3, e4)Se tiene

v2 = 1v1 + 0e2 + 1e3 + 0e4

Page 46: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

34 CAPÍTULO 1. ESPACIOS VECTORIALES

de dondee3 = −v1 + v2

Por tanto,(v1, e2, e3, e4) ∼ (v1, e2,v2, e4)

Finalmente, se tiene

v3 = (−1)v1 + 1e2 + 2v2 + 0e4de donde

e2 = v1 − 2v2 + v3Por tanto,

(v1, e2,v2, e4) ∼ (v1,v3,v2, e4)Además, se cumple

(v1,v3,v2, e4) ∼ (v1,v2,v3, e4)Por consiguiente,

(e1, e2, e3, e4) ∼ (v1,v2,v3, e4)y, en consecuencia, (v1,v2,v3, e4) es una base de R4.

Ejemplo 35 El conjunto de los polinomios en una indeterminada x con coefi-cientes en un cuerpo conmutativo K es un espacio vectorial sobre K que denota-mos por K [x]. La familia (1, x, x2, ...) es una base de K [x] pues todo polinomiopuede escribirse como combinación lineal de una subfamilia finita. Este espacioes de dimensión infinita.

Ejemplo 36 En el espacio vectorial C sobre R la familia (1, i) es una base. Lafamilia (1 + i, 1− i) es otra base.

1.14. Dimensión de un subespacio vectorialTeorema 19 Si E es un espacio vectorial de dimensión n, todo subespacio vec-torial S de E es de dimensión finita y se cumple

dimS ≤ dimEAdemás

dimS = dimE implica S = E

Demostración: El número de vectores de cualquier sistema libre y generador deE está acotado por n. Todo sistema libre y generador de S tendrá como máximoun número determinado m de vectores de E. Por tanto, m ≤ n. Si m = n, losvectores de una base de S constituyen un sistema libre de n vectores de E, yen consecuencia, una base de E. Por tanto, S = E. Finalmente, si E = {0}, setiene igualmente S = {0}.

Page 47: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.14. DIMENSIÓN DE UN SUBESPACIO VECTORIAL 35

Teorema 20 En un espacio vectorial E de dimensión finita, si partimos unabase en dos partes complementarias, las clausuras lineales de cada uno de lossistemas así definidos son subespacios suplementarios.Demostración: Sea B = (v1, ...,vn) una base de E. Consideremos los sistemasS = (v1, ...,vk) y S0 = (vk+1, ...,vn), y sean

S = hv1, ...,vkiT = hvk+1, ...,vni

Por construcción, es claro que S+ T = E. Sea v ∈ S ∩ T, entoncesv = λ1v1 + · · ·+ λkvk

v = λk+1vk+1 + · · ·+ λnvn

de aquí se obtiene

λ1v1 + · · ·+ λkvk − λk+1vk+1 − · · ·− λnvn = 0

de donde λi = 0 para todo 1 ≤ i ≤ n, ya que (v1, ...,vn) es un sistema libre.Por consiguiente, v = 0 y, en consecuencia, S ∩ T = {0}.Teorema 21 En un espacio vectorial E de dimensión n, todo subespacio S ad-mite al menos un subespacio suplementario T y se cumple

E = S⊕ T implica dimE = dim S+ dimT

Demostración: Sea (u1, ...,up) una base de S. Existe en E al menos un vectorv1 tal que el sistema (u1, ...,up,v1) es libre, pues, en caso contrario, los vectoresui formarían una base de E y se tendría S = E y, en consecuencia, T = {0}.Se repite el razonamiento con el sistema libre (u1, ...,up,v1) que tiene p + 1vectores. Podemos añadirle otro vector v2 de manera que se obtenga otro sistemalibre (u1, ...,up,v1,v2) si p + 1 < n. Este proceso termina cuando se hayanintroducido n− p nuevos vectores, porque se habrá obtenido una base de E. Losvectores del sistema libre (v1,v2, ...,vn−p) engendran un subespacio vectorial T,cuya dimensión es n− p, y es un suplementario de S. Finalmente, si S = {0},entonces T = E.

Observación 25 Una demostración alternativa basada en resultados anterioreses la siguiente: Si S es una base de S, según el corolario 3 de la secciónanterior, existe un sistema S 0 libre tal que (S,S 0) es una base de E. De aquí,por el teorema 20, los subespacios S = hSi y T = hS 0i son suplementarios.Teorema 22 Sean S y T dos subespacios vectoriales de un espacio vectorial Ede dimensión finita. Entonces se cumple

dimS+ dimT = dim(S ∩ T) + dim(S+ T)Demostración: Sea (u1, ...,up) una base de S ∩ T. Por el corolario 3 de lasección anterior, podemos completar esta base hasta obtener una base de S y

Page 48: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

36 CAPÍTULO 1. ESPACIOS VECTORIALES

una base de T. Así tenemos que (u1, ...,up,up+1, ...,uk) es una base de S y(u1, ...,up,vp+1, ...,vm) es una base de T. Entonces

(u1, ...,up,up+1, ...,uk,vp+1, ...,vm)

constituye un sistema de generador de S + T. Si demostramos que todos estosvectores son linealmente independientes, habremos obtenido una base de S + Tcon un número de vectores que prueba la igualdad del enunciado. Supongamos

kXi=1

λiui +mX

i=p+1

µivi = 0

entonceskXi=1

λiui = −mX

i=p+1

µivi

es un vector de S ∩ T, de donde

−mX

i=p+1

µivi =

pXj=1

νjuj

es decirpX

j=1

νjuj +mX

i=p+1

µivi = 0

y, como que (u1, ...,up,vp+1, ...,vm) es una base de T, se deduce νj = 0 (j =1, ..., p) y µi = 0 (i = p+ 1, ...,m). Por tanto,

kXi=1

λiui = 0

y, como que (u1, ...,up,up+1, ...,uk) es una base de S, se deduce λi = 0 (i =1, ..., k).

Corolario 5 En las mismas condiciones del teorema anterior, se cumple

dim(S⊕ T) = dimS+ dimT

En este caso, la reunión de una base de S y de una base de T da una base deS⊕ T.Demostración: Es inmediato, sabiendo que cuando la suma es directa, S∩T ={0}; además, dim {0} = 0

Corolario 6 La suma S+ T de dos subespacios es directa si y sólo si dimS+dimT = dim(S+ T).Demostración: Es inmediato a partir del teorema precedente.

Page 49: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.14. DIMENSIÓN DE UN SUBESPACIO VECTORIAL 37

Ejemplo 37 Determinar una base para la suma y la intersección de los sube-spacios S y T de R4 engendrados por los conjuntos {(1, 2, 1, 0), (−1, 1, 1, 1)} y{(2,−1, 0, 1), (1,−1, 3, 7)} respectivamente.Solución: Es claro que dimS = 2 y dimT = 2. Un vector (x, y, z, t) ∈ S∩T

debe cumplir

(x, y, z, t) = α(1, 2, 1, 0) + β(−1, 1, 1, 1) = λ(2,−1, 0, 1) + µ(1,−1, 3, 7)es decir

(α− β, 2α+ β, α+ β, β) = (2λ+ µ,−λ− µ, 3µ, λ+ 7µ)

Por tanto, se obtiene el siguiente sistema

E1 : α− β = 2λ+ µE2 : 2α+ β = −λ− µE3 : α+ β = 3µE4 : β = λ+ 7µ

Efectuando las transformaciones indicadas

E1 +E2 : 3α = λE3 : β = λ+ 7µ

Sustituyendo estos resultados en E3 se tiene

λ = −3µPor tanto, α = −µ, β = 4µ y λ = 3µ. De aquí, se tiene

(x, y, z, t) = −µ(1, 2, 1, 0) + 4µ(−1, 1, 1, 1) = µ(−5, 2, 3, 4)Por tanto,

S ∩ T = h(−5, 2, 3, 4)iy, en consecuencia, ((−5, 2, 3, 4)) es una base de S ∩ T y dim (S ∩ T) = 1. Porla fórmula del teorema 22, se sigue

dim (S+ T) = dimS+ dimT− dim (S ∩ T) = 2 + 2− 1 = 3Sabemos que

S+ T = h(1, 2, 1, 0), (−1, 1, 1, 1), (2,−1, 0, 1), (1,−1, 3, 7)iy por el resultado anterior debe ser uno de los vectores generadores dependientede los demás. Para encontrarlo aplicamos sucesivas transformaciones elemen-tales con objeto de hallar un sistema equivalente libre.

v1 v2 v3 v41 −1 2 12 1 −1 −11 1 0 30 1 1 7

v1 v2 + v1 = u2 v3 − 2v1 = u3 v4 − v1 = u41 0 0 02 3 −5 −31 2 −2 20 1 1 7

Page 50: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

38 CAPÍTULO 1. ESPACIOS VECTORIALES

v1 u2 5u2 + 3u3 = w3 u4 + u2 = w41 0 0 02 3 0 01 2 4 40 1 8 8

v1 u2 w3 w4 −w31 0 0 02 3 0 01 2 4 00 1 8 0

Por consiguiente

S+ T = h(1, 2, 1, 0), (0, 3, 2, 1), (0, 0, 4, 8)iy una base de S+ T es ((1, 2, 1, 0), (0, 3, 2, 1), (0, 0, 4, 8)).

1.15. Espacio vectorial cocienteSea E un espacio vectorial y F un subespacio vectorial de E.

Definición 19 Decimos que u,v ∈ E están relacionados módulo F si u−v ∈F. Simbólicamente, escribimos

u ≡ vmodF si y sólo si u− v ∈ FTeorema 23 Esta relación es una congruencia sobre E.Demostración: Primero probaremos que ≡ es una relación de equivalencia. Enefecto, para todo u,v,w ∈ E se tiene: (1) u ≡ u modF, pues u−u = 0 ∈ F (≡ esreflexiva); (2) si u ≡ v modF, es decir, u−v ∈ F, entonces −(u−v) = v−u ∈F, es decir, v ≡ u modF (≡ es simétrica); (3) si u ≡ v modF y v ≡ w modF,es decir, si u − v ∈ F y v −w ∈ F, entonces (u− v) + (v−w) = u −w ∈ F,es decir, u ≡ w modF (≡ es transitiva).Segundo, probaremos que ≡ es una relación compatible con las operaciones

de E. En efecto, para todo u1,u2,v1,v2 ∈ E y λ ∈ K, si u1 ≡ v1 modF yu2 ≡ v2 modF, entonces u1 + u2 ≡ v1 + v2 modF, pues de

u1 − v1 ∈ Fu2 − v2 ∈ F

se deduce(u1 − v1) + (u2 − v2) = (u1 + u2)− (v1 + v2) ∈ F

Y, si u1 − v1 ∈ F, entonces λu1 − λv1 ∈ F, pues de u1 − v1 ∈ F se deduce queλ(u1 − v1) = λu1 − λv1 ∈ F.Teorema 24 El conjunto cociente E/F junto con las siguientes operaciones:

[u] + [v] = [u+ v]

λ [u] = [λu]

en donde [u] = {u+ v : v ∈ F} designa la clase del vector u ∈ E, es unespacio vectorial sobre K.

Page 51: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.15. ESPACIO VECTORIAL COCIENTE 39

Definición 20 Se llama espacio vectorial cociente módulo F, denotado porE/F, al conjunto cociente E/F con las dos operaciones definidas en el teoremaanterior. Denotaremos también la clase del vector u por u+ F.

Teorema 25 Si E es de dimensión finita, E/F también lo es y se cumple

dim(E/F) = dimE− dimFDemostración: Completemos una base (v1, ...,vm) de F hasta obtener unabase (v1, ...,vm,vm+1, ...,vn) de E. Es claro que

[vi] = [0]

para todo 1 ≤ i ≤ m. Afirmamos que ([vm+1] , ..., [vn]) es una base de E/F. Enefecto, toda clase [u] de un vector

u =nXi=1

λivi

se puede escribir como sigue

[u] =nXi=1

λi [vi] =nX

i=m+1

λi [vi]

Por tanto, ([vm+1] , ..., [vn]) es un sistema generador de E/F.Para ver que el sistema ([vm+1] , ..., [vn]) es libre, consideremos

nXi=m+1

λi [vi] = [0]

es decir, "nX

i=m+1

λivi

#= [0]

de dondenX

i=m+1

λivi ∈ F

EntoncesnX

i=m+1

λivi =mXj=1

µjvj

es decir,mXj=1

µjvj −nX

i=m+1

λivi = 0

Ahora bien, (v1, ...,vm,vm+1, ...,vn) es una base de E. Por tanto, µj = 0 (j =1, ...,m) y λi = 0 (i = m+ 1, ..., n).Hemos obtenido una base de E/F, demostrando así la igualdad del enunciado.

Page 52: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

40 CAPÍTULO 1. ESPACIOS VECTORIALES

Ejemplo 38 Consideremos un subespacio F = hvi de R2. Si representamos loselementos de R2 como puntos del plano, los vectores de F corresponden a lospuntos de una recta que pasa por el origen. Cada una de las clases u+F corre-sponde, entonces, a puntos de una recta paralela a F que pasa por u. El espacioR2/F es, en este caso, el conjunto de rectas paralelas a F. Análogamente, siF = hvi ⊂ R3, entonces R3/F es el conjunto de rectas de R3 paralelas a unarecta F que pasa por el origen. Si F = hu,vi ⊂ R3 es de dimensión 2, F cor-responde a un plano que pasa por el origen y R3/F es el conjunto de planosparalelos a F.

1.16. Rango de un sistema de vectores

Definición 21 Se llama rango de un sistema S = (v1, ...,vm) de E, denotadopor rang S, a la dimensión de la clausura lineal de dicho sistema, es decir, ensímbolos

rang S = dim hv1, ...,vmi

Observación 26 Dicho de otro modo, el rango del sistema (v1, ...,vm) es elnúmero máximo de vectores linealmente independientes que contiene.

Teorema 26 Si S y S 0 son dos sistema equivalentes de E, entonces

rang S = rang S 0

Demostración: Es una consecuencia inmediata de la definición 11.

Corolario 7 Dado un sistema S = (v1, ...,vm), su rango no varía si se efectúacualquiera de las transformaciones elementales:

1. rang (v1, ...,vi, ...,vj , ...vm) = rang (v1, ...,vj , ...,vi, ...vm) (i 6= j)

Page 53: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.16. RANGO DE UN SISTEMA DE VECTORES 41

2. rang (v1, ...,vi, ...vm) = rang (v1, ..., λvi, ...vm) (λ 6= 0)

3. rang (v1, ...,vi, ...,vj , ...vm) = rang (v1, ...,vi + λvj , ...,vj , ...vm) (i 6=j)

Demostración: Estos resultados son consecuencias del teorema 13.

Corolario 8 Dado un sistema S = (v1, ...,vm), entonces

rang (v1, ...,vm) = rang (v1, ...,vm,w)

si y sólo si w es combinación lineal de los vectores de (v1, ...,vm).Demostración: Es una consecuencia inmediata del teorema 12.

Observación 27 Este último resultado permite asegurar que el rango de unsistema no varía cuando suprimimos los vectores que son dependientes de losrestantes; en particular, podemos suprimir los vectores nulos, y de los vectoresrepetidos nos quedamos sólo con uno de ellos.

Teorema 27 Dado un sistema de r vectores (u1, ...,ur) de un espacio vectorialE de dimensión n (r ≤ n) y (v1, ...,vn) una base de E. Si expresamos estosvectores en esta base

ui =nXj=1

λijvj (i = 1, ..., r)

y se cumpleλij = 0 para j < i

yλii 6= 0 para todo i = 1, ..., r

entonces (u1, ...,ur) es un sistema libre.Demostración: Consideremos

µ1u1 + · · ·+ µrur = 0

Introduciendo las coordenadas de los vectores en la base se tiene

µ1

nXj=1

λ1jvj + · · ·+ µr

nXj=1

λrjvj = 0

De aquí, puesto que (v1, ...,vn) es libre, se obtienen

rXi=1

µiλij = 0 (j = 1, ..., n)

Page 54: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

42 CAPÍTULO 1. ESPACIOS VECTORIALES

Si ahora tenemos en cuenta las propiedades de las λij, obtenemos:

µ1λ11 = 0

µ1λ12 + µ2λ22 = 0

µ1λ13 + µ2λ23 + µ3λ33 = 0

...

µ1λ1r + µ2λ2r + · · ·+ µrλrr = 0

es decir, µ1 = µ2 = · · · = µr = 0.

Observación 28 El teorema anterior nos da un método para determinar elrango de un sistema. Para ver esto, examina con detalle el siguiente ejemplo.

Ejemplo 39 En R4 determinar el rango del sistema S = (v1,v2,v3,v4), siendov1 = (1, 1, 2, 0),v2 = (1, 1, 0, 6),v3 = (−1, 2, 0, 1),v4 = (1, 1, 1, 3).Solución: Tomando la base canónica de R4, escribimos las coordendas de

estos vectores por filas (del mismo modo se haría por columnas) como sigue:

v1 : 1 1 2 0v2 : 1 1 0 6v3 : −1 2 0 1v4 : 1 1 1 3

aplicando 3 veces T3 se obtiene

v1 : 1 1 2 0v2 − v1 : 0 0 −2 6v3 + v1 : 0 3 2 1v4 − v1 : 0 0 −1 3

aplicando ahora 2 veces T1 se obtiene

v1 : 1 1 2 0v3 + v1 : 0 3 2 1v4 − v1 : 0 0 −1 3v2 − v1 : 0 0 −2 6

aplicando una vez T3 se obtiene

v1 : 1 1 2 0v3 + v1 : 0 3 2 1v4 − v1 : 0 0 −1 3

v2 − v1 − 2(v4 − v1) : 0 0 0 0

finalmente, suprimiendo el vector nulo se tiene

v1 : 1 1 2 0v3 + v1 : 0 3 2 1v4 − v1 : 0 0 −1 3

Page 55: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.17. ISOMORFISMOS DE ESPACIOS VECTORIALES 43

De este modo tenemos

(v1,v2,v3,v4) ∼ (v1,v3 + v1,v4 − v1)Por tanto,

rang (v1,v2,v3,v4) = rang (v1,v3 + v1,v4 − v1)El sistema (v1,v3+v1,v4−v1) además es libre, ya que cumple las coordenadasde estos vectores cumplen las condiciones del teorema anterior. Por tanto,

rang(v1,v2,v3,v4) = rang(v1,v3 + v1,v4 − v1) = 3Como consecuencia el sistema dado (v1,v2,v3,v4) es ligado. Además, a par-tir de las transformaciones aplicadas anteriormente deducimos una relación dedependencia

v2 − v1 − 2(v4 − v1) = 0es decir

v1 + v2 − 2v4 = 0En general, comprobaremos que el método nos da no solamente el rango s del sis-tema (v1, ...,vr), es decir, la dimensión del subespacio engendrado, sino tambiénuna base de este subespacio y las r−s relaciones de dependencia existentes entrelos vectores del sistema. En particular, si E es de dimensión n y (v1, ...,vn) esuna base, este método permite calcular las coordenadas de un vector cualquierarespecto a dicha base.

1.17. Isomorfismos de espacios vectorialesDefinición 22 Dados dos espacios vectoriales E y E0 sobre el mismo cuerpo K.Se llama isomorfismo de E en E0 a toda aplicación biyectiva f : E → E0 quecumple:

1. Para todo u,v ∈ E, f(u+ v) = f(u) + f(v)

2. Para todo u ∈ E y λ ∈ K, f(λu) = λf(u)

Si existe un isomorfismo de E en E0, entonces se dice que E y E0 son dosespacios vectoriales isomorfos. Escribiremos entonces

E ∼= E0

Observación 29 Hacemos las observaciones siguientes:

1. Afirmar que dos espacios vectoriales son isomorfos equivale a decir queambos tienen la misma estructura de espacio vectorial.

2. Estudiaremos con detalle los isomorfismos como caso particular de los ho-momorfismos de espacios vectoriales (o aplicaciones lineales) más adelanteen la sección correspondiente.

Page 56: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

44 CAPÍTULO 1. ESPACIOS VECTORIALES

Teorema 28 Si E1 y E2 son dos subespacios suplementarios de un espaciovectorial E, entonces los espacios E = E1 ⊕ E2 y E1 × E2 son isomorfos.Demostración: Si E1 y E2 son dos subespacios suplementarios de E, entoncesE = E1 ⊕ E2. Consideremos la descomposición única de todo v ∈ E como

v = v1 + v2

con v1 ∈ E1 y v2 ∈ E2. Consideremos la aplicación f de E1 × E2 en E1 ⊕ E2definida por

f(v1,v2) = v1 + v2

Por construcción, es claro que f es biyectiva. Además se cumple

f ((v1,v2) + (w1,w2)) = f(v1 +w1,v2 +w2) =

= (v1 +w1) + (v2 +w2) =

= (v1 + v2) + (w1 +w2) =

= f(v1,v2) + f(w1,w2)

y

f(λ(v1,v2)) = f(λv1, λv2) =

= λv1 + λv2 =

= λ(v1 + v2) =

= λf(v1,v2)

Por consiguiente, f es un isomorfismo.

Observación 30 Si E1 y E2 son dos espacios vectoriales sobre K, podemosconstruir un nuevo espacio vectorial E que los contenga a los dos salvo un iso-morfismo. En efecto, consideremos el espacio vectorial producto E1 × E2. Todovector (v1,v2) del espacio producto E1 × E2 puede descomponerse como siguede forma única

(v1,v2) = (v1,0) + (0,v2)

Consideremos ahora los dos subespacios siguientes de E1 × E2:E01 = {(v1,0) : v1 ∈ E1}

yE02 = {(0,v2) : v2 ∈ E2}

Es evidente que E1×E2 = E01⊕E02, ya que los dos subespacios tienen intersección{(0,0)}.Por otra parte, es inmediato comprobar que las aplicaciones, f1 : E01 → E1

definida por f1(v1,0) = v1, y f2 : E02 → E2 definida por f2(0,v2) = v2, sonisomorfismos de espacios vectoriales.Como consecuencia de esto, en la práctica se identifica siempre Ei y E0i

(i = 1, 2); identificar por ejemplo E1 y E01 quiere decir, confundir los vectores

Page 57: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.17. ISOMORFISMOS DE ESPACIOS VECTORIALES 45

v1 ∈ E1 y (v1,0) ∈ E01. Esta identificación permite decir que E1 y E2 son sube-spacios suplementarios de E1 × E2 . Por el teorema, los espacios E1 × E2 yE1 ⊕ E2 son isomorfos.

El espacio E = E1⊕E2 se llama suma directa de los espacios vectorialesdados E1 y E2. Entonces, es claro que E tiene a E1 y E2 como subespaciossuplementarios y se cumple que E y E1 × E2 son isomorfos.En estas condiciones, si v ∈ E, la descomposición única v = v1 + v2, hace

que la aplicación de E en Ei definida por

v = v1 + v2 7−→ vi

se identifique con la aplicación de E1 × E2 en Ei, que se llama la proyecciónπi de E1 × E2 sobre Ei (i = 1, 2). Por ejemplo, π1 se llama proyección de Esobre el subespacio E1 paralelamente al subespacio E2, suplementario deE1 respecto a E. Se dice también que v1 (resp. v2) es la componente de v deE en E1 (resp. E2).

Ejemplo 40 Probar que los espacios vectoriales siguientes R ⊕ R y R2 sonisomorfos.Solución: Si tomamos E1 = E2 = R. Según la observación anterior, podemos

afirmar que los espacios vectoriales reales R⊕ R y R2 son isomorfos. Si repre-sentamos los elementos de E1 como los vectores del eje real Ox, los de E2 comolos vectores del eje real Oy, distinto de Ox, y los de E1 × E2 como los vectoresde origen O del plano ordinario, entonces identificar R⊕R y R2 equivale a con-fundir (x1, y1) de R2 y x1 + y1 de R⊕R. La figura siguiente ilustra este hecho.

Teorema 29 Si E1 y E2 son dos subespacios suplementarios de un espaciovectorial E, entonces el espacio cociente E/E1 es isomorfo a E2.Demostración: Si E1 y E2 son dos subespacios suplementarios de un espaciovectorial E, entonces E = E1 ⊕E2. Dados v = v1 + v2 y w = w1 +w2 de E, larelación v1 + v2 ≡ w1 +w2 (mod E1) puede escribirse como sigue

(v1 + v2)− (w1 +w2) = v1 −w1 + v2 −w2 ∈ E1

Page 58: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

46 CAPÍTULO 1. ESPACIOS VECTORIALES

equivalente a v2 = w2. Por tanto, todos los vectores de una misma clase tienenla misma componente en E2. Consideremos la aplicación f : E/E1 → E2 denidapor

f([v1 + v2]) = v2

Es claro que f es exhaustiva, pues cualquiera que sea v2 de E2 existe [0+ v2]tal que f ([0+ v2]) = v2. Además, si

f ([v1 + v2]) = f ([w1 +w2])

entonces v2 = w2. Por tanto,

(v1 + v2)− (w1 +w2) ∈ E1es decir,

[v1 + v2] = [w1 +w2]

Por tanto, f es inyectiva. Se cumple

f ([v] + [w]) = f ([v+w]) = v2 +w2 = f ([v]) + f ([w])

yf (λ [v]) = f ([λv]) = λv2 = λf ([v])

Por tanto, f es un isomorfismo.

Corolario 9 En un espacio vectorial E, todos los subespacios suplementariosde un subespacio vectorial E1 de E son isomorfos.Demostración: Es una consecuencia inmediata del teorema anterior.

Teorema 30 Dos espacios vectoriales E y E0 de dimensión finita sobre el mis-mo cuerpo K son isomorfos si y sólo si tienen la misma dimensión.Demostración: Supongamos que E y E0 son de la misma dimensión n. Elegi-mos una base (v1, ...,vn) de E y otra (w1, ...,wn) de E0. Por el teorema 15(5), todo vector u ∈ E admite una expresión única como sigue

u = µ1v1 + · · ·+ µnvn

Consideremos la aplicación f de E en E0 definida por

f(u) = µ1w1 + · · ·+ µnwn

Es claro que f es biyectiva. Por otra parte, si f(v) = ν1w1+· · ·+νnwn, entoncesse cumple:

f(u+ v) = (µ1 + ν1)w1 + · · ·+ (µn + νn)wn =

= (µ1w1 + · · ·+ µnwn) + (ν1w1 + · · ·+ νnwn) =

= f(u) + f(v)

Page 59: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.17. ISOMORFISMOS DE ESPACIOS VECTORIALES 47

y

f(λu) = λµ1w1 + · · ·+ λµnwn =

= λ(µ1w1 + · · ·+ µnwn) =

= λf(u)

Por tanto, esta aplicación es un isomorfismo de E en E0.Recíprocamente, supongamos que E y E0 son isomorfos, y sea f el isomor-

fismo de E en E0. Suponagmos también que dimE = n y dimE0 = n0. Elegimosuna base (v1, ...,vn) de E. Denotamos por wi = f(vi) para cada 1 ≤ i ≤ n.Cualquier vector u ∈ E admite una expresión única como sigue

u = µ1v1 + · · ·+ µnvn

De aquí, se tiene

f(u) = f(µ1v1 + · · ·+ µnvn) =

= µ1f(v1) + · · ·+ µnf(vn) =

= µ1w1 + · · ·+ µnwn

Puesto que f es exhaustiva, cualquier vector w ∈ E0 tiene una antiimagen enE. Supongamos que f(u) = w, entonces

w = µ1w1 + · · ·+ µnwn

Por tanto, (w1, ...,wn) es un sistema generador de E0. Vamos a ver ahora que(w1, ...,wn) es libre. Para ello, consideremos

λ1w1 + · · ·+ λnwn = 0

es decirλ1f(v1) + · · ·+ λnf(vn) = 0

De aquí, según la definición de isomorfismo, se sigue

f(λ1v1 + · · ·+ λnvn) = f(0)

ya quef(0) = f(0+ 0) = f(0) + f(0) implica f(0) = 0

Ahora bien, f es inyectiva. Por tanto,

λ1v1 + · · ·+ λnvn = 0

Puesto que (v1, ...,vn) es una base de E, se sigue que λi = 0 para todo 1 ≤ i ≤n. Por consiguiente, (w1, ...,wn) es una base de E0. En consecuencia, los dosespacios vectoriales tienen la misma dimensión.

Page 60: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

48 CAPÍTULO 1. ESPACIOS VECTORIALES

Observación 31 En la demostración de este teorema se prueba también que sidos espacios vectoriales de dimensión finita son isomorfos, la aplicación trans-forma una base de uno en una base del otro. Además, el isomorfismo quedaperfectamente definido una vez elegida una base de cada espacio vectorial. Enconcreto, el isomorfismo asocia los vectores de las mismas coordenadas.

Corolario 10 Todo espacio vectorial E de dimensión n sobre K es isomorfo aKn.Demostración: El isomorfismo se establece una vez elegidas las bases: en Eescogemos una base arbitraria (v1, ...,vn) y en Kn podemos tomar la base natural(e1, ..., en). Entonces, el vector v = λ1v1 + · · · + λnvn de E de coordenadas(λ1, ..., λn) respecto de la base considerada se corresponde con el vector w =λ1e1 + · · ·+ λnen de Kn de las mismas coordenadas en la base natural.

Observación 32 Después de este último resultado, el estudio de E, desde elpunto de vista de su estructura vectorial se identifica así con el estudio de Kn

referido a su base natural. Esta es la razón por la que se denomina tambiénbase canónica a la base natural de Kn. Obsérvese que con este resultado hemosresuelto el problema de determinar (salvo isomorfismo) todos los espacios vec-toriales de dimensión finita.

Corolario 11 Dados dos espacios vectoriales E1 y E2 de dimensiones finitas,entonces se cumple

dim (E1 × E2) = dim (E1 ⊕ E2) = dimE1 + dimE2

Demostración: Según la observación 30 se tiene

E1 × E2 ∼= E1 ⊕ E2Por tanto, por el teorema 30, tenemos

dim (E1 × E2) = dim (E1 ⊕ E2)Para probar la última igualdad, supongamos que (v1, ...,vn) y (w1, ...,wm) sonbases de E1 y E2 respectivamente. Entonces es inmediato probar que

((v1,0), ..., (vn,0), (0,w1), ..., (0,wm))

es una base del espacio producto E1 × E2. Por tantodim (E1 × E2) = n+m

1.18. Cambio de coordenadasDefinición 23 Se llaman coordenadas de un vector v de un espacio vec-torial E respecto a la base (v1, ...,vn) a la única familia finita de escalares(λ1, ..., λn) tales que

v = λ1v1 + · · ·+ λnvn

Page 61: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.18. CAMBIO DE COORDENADAS 49

Definición 24 Dado un espacio vectorial E, al pasar de una base B1 a unabase B2, decimos que los vectores de E cambian sus coordenadas. Se diceque el vector v tiene coordenadas (λ1, ..., λn) en B1 = (v1, ...,vn) y (µ1, ..., µn)en B2 = (u1, ...,un). A la base B1 se la llama base antigua y a B2, la basenueva.En el teorema 31 se indicará cómo se calculan las coordendadas nuevas

a partir de las antiguas y recíprocamente, y, en el teorema 32 se darán lasecuaciones que caracterizan la relación que hay entre las dos bases.

Observación 33 Suponiendo E = E0 en el teorema 30 y eligiendo dos basesdistintas (v1, ...,vn) y (u1, ...,un) de E, la aplicación biyectiva que asigna av = λ1v1+ · · ·+λnvn el vector w = λ1u1+ · · ·+λnun, es un automorfismo deE (un isomorfismo de E en sí mismo). Esto hace que el estudio de E, realizadoutilizando la base antigua, se conserve idénticamente cuando cambiemos de basey reemplacemos los vectores estudiados por sus transformados en el automorfis-mo asociado, es decir, los vectores expresados en la base nueva.

Teorema 31 Dadas dos bases distintas B1 = (v1, ...,vn) y B2 = (u1, ...,un)de un espacio vectorial E. Sea v un vector arbitrario de E de coordenadas(λ1, ..., λn) en la base B1 y de coordenadas (µ1, ..., µn) en la base B2. Entoncesexisten n2 coeficientes αij y βij tales que

λi = µ1αi1 + · · ·+ µnαin (i = 1, ..., n)

yµi = λ1βi1 + · · ·+ λnβin (i = 1, ..., n)

Demostración: Sea v un vector arbitrario de E de coordenadas (λ1, ..., λn) enla base antigua B1. Queremos hallar sus nuevas coordenadas en la base nuevaB2.Los vectores de la nueva base están definidos por medio de sus coordenadas

en la antigua base por las ecuaciones

uj = α1jv1 + · · ·+ αnjvn (j = 1, ..., n) (1.1)

lo que introduce n2 coeficientes αij. El vector v se descompone de dos maneras

v = λ1v1 + · · ·+ λnvn = µ1u1 + · · ·+ µnun

siendo (µ1, ..., µn) las coordenadas nuevas de v. Reemplazando los uj de (1.1),se obtiene

λ1v1 + · · ·+ λnvn = µ1(α11v1 + · · ·+ αn1vn) + · · ·+ µn(α1nv1 + · · ·+ αnnvn)

identificando en ambos miembros los coeficientes de vj se tiene

λi = µ1αi1 + · · ·+ µnαin (i = 1, ..., n)

Estas son las expresiones de las antiguas coordenadas en función de lasnuevas.

Page 62: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

50 CAPÍTULO 1. ESPACIOS VECTORIALES

Si se desea obtener las fórmulas inversas, basta escribir los vectores de laantigua base por medio de sus coordenadas en la nueva base

vj = β1ju1 + · · ·+ βnjun (j = 1, ..., n) (1.2)

y procediendo de la misma manera se obtiene

µi = λ1βi1 + · · ·+ λnβin (i = 1, ..., n)

Observación 34 Podemos escribir estas ecuaciones de una manera más cómo-da utilizando matrices. Consideremos las matrices siguientes

P =

α11 · · · α1n...

. . ....

αn1 · · · αnn

Q =

β11 · · · β1n...

. . ....

βn1 · · · βnn

A =

λ1...λn

B =

µ1...µn

Las ecuaciones que relacionan las coordenadas nuevas en B2 en función de lasantiguas en B1 se pueden escribir así

B = QA

y las ecuaciones que relacionan las coordenadas antiguas en función de lasnuevas como

A = PB

Es importante observar que las columnas de la matriz P son los vectoresde la base antigua B1 expresados en la base nueva B2. Del mismo modo, lascolumnas de la matriz Q son los vectores de la base nueva B2 expresados en labase antigua B1. Las matrices columna A y B son las coordenadas de un mismovector expresadas en B1 y B2, respectivamenteLas matrices P y Q se llaman matrices de cambio de base. También se

dice que P es la matriz de paso de la base nueva B2 a la base antigua B1. Deforma análoga, Q se la llama matriz de paso de B1 a B2.Definición 25 Se define la aplicación δ : Nn ×Nn → {0, 1} por

δ(i, j) =

½1 si i = j0 si i 6= j

siendo Nn = {1, 2, ..., n}. El valor δ(i, j) se representa por δij y recibe el nombrede símbolo de Kronecker.

Teorema 32 Dadas dos bases distintas (v1, ...,vn) y (u1, ...,un) de un espaciovectorial E. Las coordenadas αij y βij de los vectores de una base respecto de laotra, están ligadas por las siguientes ecuaciones características

nXk=1

αkjβik = δij

Page 63: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

1.18. CAMBIO DE COORDENADAS 51

siendo δij el símbolo de Kronecker.Demostración: En las ecuaciones (1.1), introduciendo las ecuaciones (1.2),se obtiene

uj = (α1jβ11 + · · ·+ αnjβ1n)u1 + · · ·+ (α1jβn1 + · · ·+ αnjβnn)un

uj =

ÃnX

k=1

αkjβ1k

!u1 + · · ·+

ÃnX

k=1

αkjβnk

!un =

=nXi=1

nXk=1

αkjβikui

Dado que (u1, ...,un) es un sistema libre, se deducen las siguientes relaciones:

1. Si j = i, el coeficiente de ui en el segundo miembro debe ser igual a 1.Por tanto,

nXk=1

αkiβik = 1 (i = 1, ..., n)

2. Si j = r 6= i, el coeficiente de ur en el segundo miembro debe ser igual a0. Por tanto,

nXk=1

αkrβik = 0 (i = 1, ..., r − 1, r + 1, ..., n)

Introduciendo el símbolo de Kronecker, las dos relaciones anteriores se es-criben en una sola como sigue

nXk=1

αkjβik = δij

Observación 35 El teorema puede escribirse más cómodamente utilizando ma-trices. En efecto, obsérvese que la matriz asociada a la aplicación que define elsímbolo de Kronecker por

aij = δij

es la matriz que llamamos matriz identidad de orden n que la denotamospor In

In =

1 0 · · · 00 1 · · · 0....... . .

...0 0 · · · 1

Page 64: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

52 CAPÍTULO 1. ESPACIOS VECTORIALES

Las ecuaciones anteriores se escriben así

QP = In

Obsérvese que las matrices de los cambios de base son siempre invertibles. Dela última igualdad se sigue

P = Q−1 y Q = P−1

Ejemplo 41 En R3 se consideran las bases B1 = (e1, e2, e3) y B2 = (v1,v2,v3)siendo v1 = 2e1,v2 = −e2 + 2e3 y v3 = −3e3. Hallar las coordenadas respectoa B2 del vector u = 4e1 + e2 − 5e3.Solución: Según la observación 34, sabemos que la matriz de cambio de

base o de paso de B1 a B2 tiene por vectores columna a los vi referidos a la baseantigua B1. En este caso tenemos

P =

2 0 00 −1 00 2 −3

Entonces, según la observación 35, la matriz Q de paso de B2 a B1 cumple

QP = I3

Por tanto,

Q = P−1 =1

6

3 0 00 −6 00 −4 −2

Si (x1, y1, z1) son las coordenadas de un vector referidas a la base B1 y (x2, y2, z2)son las coordenadas del mismo vector referidas a la base B2. Entonces se cumple

1

6

3 0 00 −6 00 −4 −2

x2y2z2

=

x1y1z1

Sustituyendo las coordenadas del vector u se tiene

1

6

3 0 00 −6 00 −4 −2

41−5

=

2−11

Por tanto

u = 2v1 − v2 + v3

Page 65: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 2

Aplicaciones lineales

2.1. Definición y ejemplos

Sean dos espacios vectoriales E y F sobre el mismo cuerpo K. Una aplicaciónentre los conjuntos E y F que sea compatible con las estructuras de espaciovectorial de E y F se llama homomorfismo de espacios vectoriales o aplicaciónlineal.

Definición 26 Se llama aplicación lineal a toda aplicación f : E→ F tal que

f(u+ v) = f(u) + f(v)

f(λu) = λf(u)

para todo u,v ∈ E y todo λ ∈ K.

Ejemplo 42 Consideremos E = F = R y K = R. Si f : R → R es lineal yf(1) = a, entonces f(x) = f(x1) = xf(1) = ax. Se cumple también que

f(x+ y) = a(x+ y) = ax+ ay = f(x) + f(y)

De este modo, hemos caracterizado las aplicaciones compatibles con la estructurade espacio vectorial de R; cualquier aplicación lineal f : R→ R es de la formaf(x) = ax, con a ∈ R.

Ejemplo 43 Sea E un espacio vectorial sobre K y (v1, ...,vn) una base de E.La aplicación f : E→ Kn definida por

f(u) = (λ1, ..., λn)

siendo u = λ1v1 + · · · + λnvn, es lineal. Esta aplicación hace corresponder acada vector de E sus coordendas en la base dada.

Teorema 33 Si f : E→ F es lineal, entonces se cumple:

53

Page 66: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

54 CAPÍTULO 2. APLICACIONES LINEALES

1. f(αu+ βv) = αf(u) + βf(v)

2. f(0) = 0

3. f(−u) = −f(u)4. si además g : F→ G es lineal, entonces g ◦ f : E→ G es lineal

Demostración: (1.) Si f es lineal entonces se cumple

f(αu+ βv) = f(αu) + f(βv)

De nuevo por ser lineal se cumple

f(αu) + f(βv) = αf(u) + βf(v)

De donde se tiene lo que queríamos probar.(2.) Si f es lineal, entonces se cumple

f(0) = f(0+ 0) = f(0) + f(0)

De donde se obtiene lo que queríamos probar.(3.) Si f es lineal, entonces se cumple

0 = f(0) = f(u+ (−u)) = f(u) + f(−u)

De donde se obtiene lo que queríamos probar.(4.) Si f es lineal entonces se cumple

(g ◦ f)(u+ v) = g(f(u+ v)) = g(f(u) + f(v))

Por ser g lineal, entonces

g(f(u) + f(v)) = g(f(u)) + g(f(v)) = (g ◦ f)(u) + (g ◦ f)(v)

Por otro lado, si f es lineal entonces se cumple

(g ◦ f)(αu) = g(f(αu)) = g(αf(u))

Por ser g lineal, entonces

g(αf(u)) = α(g(f(u))) = α(g ◦ f)(u)

Definición 27 Unmonomorfismo es una aplicación lineal inyectiva. Un epi-morfismo es una aplicación lineal exhaustiva. Un isomorfismo es una apli-cación lineal biyectiva. Un endomorfismo es una aplicación lineal de un espa-cio E en sí mismo. Un automorfismo es un endomorfismo biyectivo.

Page 67: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

2.2. NÚCLEO E IMAGEN DE UNA APLICACIÓN LINEAL 55

2.2. Núcleo e imagen de una aplicación lineal

Sea f : E→ F una aplicación lineal.

Definición 28 Se llama núcleo de f al subconjunto de E definido como sigue

ker f = {u ∈ E : f(u) = 0}Definición 29 Se llama imagen de f al subconjunto de F definido como sigue

Im f = {v ∈ F : existe u ∈ E tal que f(u) = v}Ejemplo 44 Consideremos la aplicación cero 0 : E→ E:

0(u) = 0

para todo u ∈ E. Calculemos su núcleo y su imagen:ker 0 = {u ∈ E : 0(u) = 0} = E

Im 0 = {v ∈ E : existe u ∈ E tal que 0(u) = v} = {v ∈ E : 0 = v} = {0}Ejemplo 45 Consideremos la aplicación identidad IE : E→ E:

IE(u) = u

para todo u ∈ E. Calculemos su núcleo y su imagen:ker IE = {u ∈ E : IE(u) = 0} = {u ∈ E : u = 0} = {0}

Como u = IE(u), para todo u ∈ E, entoncesIm IE = E

Ejemplo 46 Consideremos la aplicación

f : R2 → R2

definida porf(x, y) = (x+ y, x− y)

Calculemos su núcleo y su imagen:

ker f = {(x, y) ∈ R2 : f(x, y) = 0} = {(x, y) ∈ R2 : x+ y = 0 y x− y = 0} == {(x, y) ∈ R2 : x = −y y x = y} = {(0, 0)} = {0}

Im f = {f(x, y) : (x, y) ∈ R2} = {(x+ y, x− y) : (x, y) ∈ R2} == {(x, x) + (y,−y) : (x, y) ∈ R2} = {x(1, 1) + y(1,−1) : (x, y) ∈ R2} == h{(1, 1), (1,−1)}i

es decir, Im f es el subespacio vectorial de R2 generado por los vectores (1, 1) y(1,−1).

Page 68: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

56 CAPÍTULO 2. APLICACIONES LINEALES

Teorema 34 Se cumple que ker f es un subespacio vectorial de E, e Im f esun subespacio vectorial de F.Demostración: Vamos a probar que ker f es un subespacio vectorial de E. Enefecto, consideremos u,v ∈ ker f , entonces se cumple

f(u+ v) = f(u) + f(v) = 0+ 0 = 0

por ser f lineal. Por tanto, u + v ∈ ker f . Consideremos α ∈ K, entonces secumple

f(αu) = αf(u) = α0 = 0

por ser f lineal. Por tanto, αu ∈ ker f . En consecuencia lo que queríamosprobar.Para probar que Im f es un subespacio, consideremos u0,v0 ∈ Im f , entonces

existen u,v ∈ E tales que

f(u) = u0 y f(v) = v0

Consideremos u+ v ∈ E. Entonces se cumple

f(u+ v) = f(u) + f(v) = u0 + v0

por ser f lineal. Por consiguiente, u0 + v0 ∈ Im f . Consideremos α ∈ K. Siu0 ∈ Im f entonces existe u ∈ E tal que f(u) = u0. Por tanto, αu ∈ E y secumple

f(αu) = αf(u) = αu0

por ser f lineal. Por consiguiente, αu ∈ Im f .

Teorema 35 Sea f : E → F una aplicación lineal, donde E es un espacio dedimensión finita. Entonces ker f e Im f son de dimensión finita. Además secumple

dimE = dim ker f + dim Im f

Demostración: ker f es un subespacio vectorial de E, que por hipótesis es dedimensión finita. Por tanto, ker f también es de dimensión finita. Sean k =dim ker f , n = dimE. Consideremos una base de ker f , u1, . . . ,uk, y amplié-mosla a una base de E, u1, . . . ,uk,uk+1, . . . ,un. Para completar la demostracióndel teorema, basta probar que f(uk+1), . . . , f(un) es una base de F, porque estoimplicará que la dimensión de F es finita, y que dimF = dimE−dim ker f , taly como queremos ver.Veamos a continuación que f(uk+1), . . . , f(un) es una base de F. Sea u ∈

Im f . Entonces existe v =Pi=n

i=1 λiui ∈ E tal que

u = f(v) = f

Ãi=nXi=1

λiui

!=

i=nXi=1

λif(ui) =i=nX

i=k+1

λif(ui)

Page 69: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

2.3. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 57

donde se ha usado que las imágenes por f de u1, . . . ,uk son 0 por pertenecera ker f . Por consiguiente, f(uk+1), . . . , f(un) generan Im f. Sólo falta ver queson linealmente independientes:

0 =i=nX

i=k+1

λif(ui) = f

Ãi=nX

i=k+1

λiui

!

Por tanto,Pi=n

i=k+1 λiui ∈ ker f , de donde se deducei=nX

i=k+1

λiui =i=kXi=1

µiui

Por tanto,i=kXi=1

µiui −i=nX

i=k+1

λiui = 0

Los vectores ui son linealmente independientes, por lo que los coeficientes debenser 0. En particular, λi = 0 para i = k+1, . . . , n. Por consiguiente, f(uk+1), . . . , f(un)son linealmente independientes.

Definición 30 El rango de una aplicación lineal f es la dimensión de Im f.

Teorema 36 Una aplicación lineal f : E→ F es inyectiva si, y sólo si, ker f =0. Una aplicación lineal f es exhaustiva si, y sólo si, Im f = F.Demostración: Veamos primero que f es inyectiva ⇐⇒ ker f = 0.⇒) u ∈ ker f ⇒ f(u) = 0 = f(0)⇒ u = 0, por ser f inyectiva.⇐) f(u) = f(v)⇒ f(u)− f(v) = 0⇒ f(u− v) = 0⇒ u− v ∈ ker f ⇒u− v = 0⇒ u = v.Para ver que f es exhaustiva ⇐⇒ Im f = F, basta aplicar la definición de

exhaustividad.

2.3. Matriz asociada a una aplicación linealTeorema 37 Sea B = {ui|i ∈ I} una base de un espacio vectorial E sobre elcuerpo K. Sean {wi|i ∈ I} vectores cualesquiera de un espacio vectorial F sobreK. Existe una aplicación lineal f : E→ F, y sólo una, tal que f(ui) = wi paracada i ∈ I.Demostración: Puesto que f es una aplicación lineal, cumple

f

ÃnXi=1

αiui

!=

nXi=1

αif(ui)

Así pues, debemos definir la función que buscamos como sigue

f

ÃnXi=1

αiui

!=

nXi=1

αiwi

Page 70: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

58 CAPÍTULO 2. APLICACIONES LINEALES

Sólo falta demostrar que, así definida, f es lineal:

f(x+ y) = f

ÃnXi=1

λiui +nXi=1

µiui

!= f

ÃnXi=1

(λi + µi)ui

!=

nXi=1

(λi + µi)wi =

=nXi=1

(λiwi + µiwi) =nXi=1

λiwi +nXi=!

µiwi = f(x) + f(y)

f(βx) = f

Ãβ

nXi=!

λiui

!= f

ÃnXi=1

(βλi)ui

!=

nXi=1

(βλi)wi = βnXi=!

λiwi = βf(x).

Observación 36 El anterior teorema nos dice que una aplicación lineal quedatotalmente determinada por las imágenes de los vectores de una base. Estasimágenes pueden ser, no obstante, arbitrarias.

Teorema 38 Con las notaciones del teorema anterior, f es inyectiva si, y sólosi, {wi|i ∈ I} es linealmente independiente.Demostración: ⇒) Supongamos que f es inyectiva. Por tanto, ker f = 0.Veamos que {wi|i ∈ I} son linealmente independientes:Xi∈I

λiwi = 0⇒Xi∈I

λif(ui) = 0⇒ f

ÃXi∈I

λiui

!= 0⇒

Xi∈I

λiui = 0⇒

⇒ λi = 0 para cada i ∈ I.

⇐) Supongamos que {wi|i ∈ I} es linealmente independiente. Basta probarque ker f = 0.

Sea x =Xi∈I

αiui ∈ ker f ⇒ f(x) = 0⇒ f

ÃXi∈I

αiui

!= 0⇒

Xi∈I

αiwi = 0⇒

⇒ αi = 0 para todo i ∈ I ⇒ x = 0⇒ ker f = 0.

Teorema 39 Con las notaciones del teorema anterior, f es exhaustiva si, ysólo si, {wi|i ∈ I} genera F.Demostración: ⇒) Supongamos que f es exhaustiva. Por tanto, Im f = F.Sea y ∈ F, y veamos que puede expresarse en combinación lineal de {wi|i ∈ I}:

y ∈ F = Im f ⇒ Existe x =Xi∈I

αiui ∈ E tal que y = f(x)

⇒ y = f

ÃXi∈I

αiui

!⇒ y =

Xi∈I

αif(ui)⇒ y =Xi∈I

αiwi.

Page 71: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

2.3. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 59

⇐) Supongamos que {wi|i ∈ I} genera F. Sea y ∈ F, y veamos que y ∈Im f :

y ∈ F = hwi|i ∈ Ii⇒ y =Xi∈I

βiwi =Xi∈I

βif(ui) =Xi∈I

f(βiui) = f

ÃXi∈I

βiui

!⇒

⇒ y ∈ Im f ⇒ f es exhaustiva.

Teorema 40 Con las notaciones del teorema anterior, f es biyectiva si, y sólosi, {wi|i ∈ I} es una base de F.Demostración: El enunciado se deduce de los dos teoremas anteriores:

f biyectiva ⇐⇒ f inyectiva y exhaustiva⇐⇒⇐⇒ {wi|i ∈ I} es linealmente independiente y genera F⇐⇒⇐⇒ {wi|i ∈ I} es una base de F.

Sea f : E → F lineal, con E y F de dimensiones n y m respectivamente.Sean u1, . . . ,un y v1, . . . ,vm bases de E y F. Entonces f queda determinada siconocemos las coordenadas de f(u1), . . . , f(un) en la base v1, . . . ,vm:

f(ui) =mXj=1

αjivj , i = 1, . . . , n

Definición 31 Se llama matriz asociada a f respecto a las bases {ui}, {vj}a α11 · · · α1n

.... . .

...αm1 · · · αmn

La matriz asociada es la herramienta con que, muy a menudo, se estudi-

an las aplicaciones lineales. Veamos cómo esta matriz nos permite calcular lascoordenadas de la imagen de un vector:

Sea w =nXi=1

wiui ∈ E⇒ f(w) =nXi=1

wif(ui) =nXi=1

wi

mXj=1

αjivj

=mXj=1

ÃnXi=!

αjiwi

!vj

Así pues, las coordenadas (w1, . . . , wm) de f(w) en la base {vj} son

wj =nXi=1

αjiwi, j = 1, . . . ,m.

Page 72: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

60 CAPÍTULO 2. APLICACIONES LINEALES

Si escribimos las coordenadas (w1, . . . , wn) y (w1, . . . , wm) como matrices deuna columna

W =

w1...wn

, W =

w1...wn

entonces las igualdades anteriores se pueden resumir en

W = AW.

Ejemplo 47 Consideremos la aplicación f : Rn → Rm definida por

(x1, . . . , xn) 7−→ (nXi=1

α1ixi, . . . ,nXi=1

αmi xi)

Tomemos en Rn y Rm las bases {ei = (0, . . . , 0, 1, 0, . . . 0)}.

f(ei) = f((0, . . . , 1, . . . , 0)) = (α1i , . . . , αmi )

Por tanto, la matriz asociada a f es α11 · · · α1n...

. . ....

αm1 · · · αmn

Ejemplo 48 La matriz de IE : E→ E, considerando la misma base {ui} en losdos espacios, es la matriz identidad

1 0 · · · 00 1 · · · 0....... . .

...0 0 · · · 1

ya que IE(ui) = ui = 0u1 + · · ·+ 1ui + · · · 0un.

Ejemplo 49 Consideremos la matriz identidad IE : E → E. Tomemos en elprimer espacio E una base u1, . . . ,un y en el segundo una base v1, . . . ,vn. Lamatriz de IE respecto a estas bases está formada por los coeficientes de

IE(ui) = ui =nXj=1

αjivj

Ejemplo 50 Sea f : E → F un isomorfismo. Consideremos una base {ui} deE y la base {f(ui)} de F. La matriz de f respecto a estas bases es la matrizidentidad.

Page 73: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

2.3. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 61

Teorema 41 Sean f : E→ F y g : F→ H aplicaciones lineales. Sean {u1, . . . ,un},{v1, . . . ,vm}, {w1, . . . ,ws} bases de E,F,H respectivamente. Sean A,B,C lasmatrices de f, g, g ◦ f respecto a estas bases. Entonces C = BA.Demostración: Tenemos f(ui) =

Pmj=1 α

jivj , g(vj) =

Psk=1 β

kjwk. En-

tonces

(g◦f)(ui) = g(f(ui)) = g

mXj=1

αjivj

=mXj=1

αjig(vj) =mXj=1

αji

ÃsX

k=1

βkjwk

!=

sXk=1

mXj=1

αjiβkj

wk

Por otro lado, usando la matriz asociada a g ◦ f,

(g ◦ f)(ui) =sX

k=1

ckiwk

Igualando las dos expresiones de (g ◦ f)(ui), obtenemos

cki =mXj=1

αjiβkj =

mXj=1

βkjαji

Es decir,C = BA.

Corolario 12 El producto de matrices es asociativo.Demostración: Recordemos en primer lugar que el producto de matrices sóloestá definido cuando el número de columnas de la primera matriz coincide conel número de filas de la segunda. Sean, pues

A ∈Mm×n(K), B ∈Ms×m(K), C ∈Mt×s(K)

Consideremos espacios vectoriales E,F,G,H sobre K de dimensiones n,m, s, trespectivamente. Si fijamos bases en cada uno de estos espacios, existen aplica-ciones lineales f, g, h con matrices A,B,C respecto a estas bases. El hecho deque h ◦ (g ◦ f) = (h ◦ g) ◦ f implica que

C(BA) = (CB)A

tal y como queríamos ver.

Queremos ahora encontrar qué relación hay entre las matrices de una mismaaplicación lineal respecto a diferentes bases. Sea

f : E→ F

con matriz A respecto a las bases u1, . . . ,un de E y v1, . . . ,vm de F, y con matrizB respecto a las bases u1, . . . , un de E y v1, . . . , vm de F. Podemos escribir fcomo la composición

E → E→ F→ Ff = IF ◦ f ◦ IE

Page 74: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

62 CAPÍTULO 2. APLICACIONES LINEALES

Consideremos en estos cuatro espacios las bases {ui}, {ui}, {vi}, {vi} respec-tivamente. Sabemos que

B = QAP

donde P es la matriz de IE

ui =nX

k=1

pki uk, i = 1, . . . , n

y Q es la matriz de IF

vj =mXk=1

qkj vk, j = 1, . . . ,m

En muchas ocasiones, lo que conocemos son las coordenadas de la nueva basevk en la base vj ,

vk =mXj=1

rjkvj , k = 1, . . . ,m

Recordemos, sin embargo, que las matrices R = (rjk) y Q son inversas una de laotra. Así pues,

B = R−1AP.

2.4. Espacios vectoriales isomorfosTeorema 42 Si f es lineal y biyectiva, entonces f−1 también es lineal.Demostración: Para demostrar que f−1(u+v) = f−1(u)+f−1(v),basta probarque ambos miembros tienen la misma imagen por f , gracias a que f es biyectiva:

f(f−1(u+ v)) = u+ v = ff−1(u) + ff−1(v) = f(f−1(u) + f−1(v))

Veamos que f−1(λu) = λf−1(u) de la misma manera:

f(f−1(λu)) = λu = λff−1(u) = f(λf−1(u)).

Observación 37 Gracias a este teorema sabemos que si f : E → F es unisomorfismo, entonces existe una aplicación lineal g : F→ E (notamos g = f−1)tal que g ◦ f = IE y f ◦ g = IF, donde IE designa la aplicación identidad de Een E (IE(u) = u, para todo u ∈ E) y análogamente para IF.Recíprocamente, si f es tal que existe una aplicación lineal g : F → E que

cumple g◦f = IE y f ◦g = IF, entonces f es biyectiva e inversa de g. Aplicandoel anterior teorema, tenemos que f es lineal y, por tanto, es un isomorfismo.

Definición 32 Se dice que dos espacios vectoriales E y F son isomorfos siexiste un isomorfismo E→ F.

Page 75: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

2.4. ESPACIOS VECTORIALES ISOMORFOS 63

Notación 1 Para indicar que dos espacios E y F son isomorfos, usaremos lasiguiente notación:

E ∼= FEjemplo 51 Si E es un espacio vectorial de dimensión n sobre K, entoncesE ∼= Kn.En efecto, consideremos una base de E: u1, . . . ,un. Todo vector v ∈ E puede

expresarse como v = α1u1 + · · ·+ αnun.Definimos la siguiente aplicación:

f : E→ Kn

dada porf(α1u1 + · · ·+ αnun) = (α1, . . . , αn) ∈ Kn

Veamos que f es un isomorfismo:

f es lineal:

f(v+w) = f((α1u1 + · · ·+ αnun) + (β1u1 + · · ·+ βnun)) =

= f((α1 + β1)u1 + · · ·+ (αn + βn)un) =

= (α1 + β1, . . . , αn + βn) = (α1, . . . , αn) + (β1, . . . , βn) =

= f(u) + f(v)

f(λv) = f(λ(α1u1 + · · ·+ αnun)) = f(λα1u1 + · · ·+ λαnun) =

= (λα1, . . . , λαn) = λ(α1, . . . , αn) = λf(v)

f es inyectiva: Basta probar que ker f = 0:

v ∈ ker f ⇒ f(v) = 0⇒ f(α1u1 + · · ·+ αnun) = 0⇒ (α1, . . . , αn) = 0⇒⇒ αi = 0, i = 1, . . . , n⇒ v = 0.

f es exhaustiva: Basta probar que Im f = Kn.Sea (α1, . . . , αn) ∈ Kn.Definimos

v = α1u1 + · · ·+ αnun

Es obvio que f(v) = (α1, . . . , αn)⇒ (α1, . . . , αn) ∈ Im f.

Teorema 43 Dos espacios vectoriales de dimensión finita E y F son isomorfossi, y sólo si, dimE = dimF.Demostración: ⇒) Supongamos que E ∼= F. Así pues, existe un isomorfismof : E→ F. Sabemos que ker f = 0 por ser f inyectiva, y que Im f = F por serf exhaustiva. Se cumple

dimE = dim ker f + dim Im f ⇒ dimE = dim0+ dimF = 0+ dimF = dimF

tal y como queríamos ver.

Page 76: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

64 CAPÍTULO 2. APLICACIONES LINEALES

⇐) Supongamos ahora que dimE = dimF. Sea u1, . . . ,un una base de E,y v1, . . . ,vn una base de F. Consideremos la aplicación lineal

f : E→ F

definida de la siguiente forma:

f

ÃnXi=1

αiui

!=

nXi=1

αivi

Veamos que f es un isomorfismo:

f es lineal: Sean x,y ∈ E, x =Pni=1 λiui, y =

Pni=1 µiui, β ∈ K.

f(x+ y) = f

ÃnXi=1

λiui +nXi=1

µiui

!= f

ÃnXi=1

(λi + µi)ui

!=

nXi=1

(λi + µi)vi =

=nXi=1

(λivi + µivi) =nXi=1

λivi +nXi=1

µivi = f(x) + f(y)

f(βx) = f

Ãβ

nXi=1

λiui

!= f

ÃnXi=1

(βλi)ui

!=

nXi=1

(βλi)vi = βnXi=1

λivi = βf(x)

f es inyectiva: Basta ver que ker f = 0.

Sea x =nXi=1

λiui ∈ ker f ⇒ f(x) = 0⇒ f

ÃnXi=1

λiui

!= 0⇒

nXi=1

λivi = 0⇒

⇒ λi = 0 para i = 1, . . . , n⇒ x = 0⇒ ker f = 0

f es exhaustiva: Basta ver que F = Im f. Sea y ∈ F, y =Pn

i=1 µivi.Consideremos x =

Pni=1 µiui ∈ E.

f(x) = f

ÃnXi=1

µiui

!=

nXi=1

µivi = y⇒ y = f(x)⇒ y ∈ Im f

Ejemplo 52 R2 y C son espacios vectoriales sobre R isomorfos. Un isomorfis-mo es

(a, b)→ a+ bi

Page 77: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

2.5. TEOREMAS DE ISOMORFISMO 65

2.5. Teoremas de isomorfismoTeorema 44 (primer teorema de isomorfismo) Si f : E → F es lineal,entonces

Im f ∼= E/ ker fDemostración: La aplicación f envía todos los elementos de una clase u+ker fal mismo vector de F; en efecto, si w ∈ ker f , f(w) = 0, y

f(u+w) = f(u) + f(w) = f(u) + 0 = f(u)

Esto nos permite definir una aplicación

g : E/ ker f → Im f

de la forma siguienteg([u]) = f(u)

g es lineal:

g([u] + [v]) = g([u+ v]) = f(u+ v) = f(u) + f(v) = g([u]) + g([v])

g es exhaustiva:

si y ∈ Im f ⇒ existe x ∈ E tal que y = f(x)⇒ y = g([x])⇒ y ∈ Im g

g es inyectiva: Basta ver que ker g = 0.

Supongamos que g([u]) = 0⇒ f(u) = 0⇒ u ∈ ker f ⇒ [u] = [0]

Por consiguiente, g es un isomorfismo entre E/ ker f e f. Así pues,

Im f ∼= E/ ker f.

Corolario 13 (Segundo teorema de isomorfismo) Si F y G son subespaciosde E, se cumple

(F+G)/F ∼= G/(F ∩G)Demostración: Consideremos la aplicación

f : G→ (F+G)/F

dada porf(v) = [v]

f es claramente lineal. ker f está formado por aquellos vectores v ∈ G talesque [v] = 0, es decir, v ∈ F. Por tanto, ker f = F∩G. Además, f es exhaustiva:

si [u] ∈ (F+G)/F⇒ u = w+ v, w ∈ F, v ∈ G⇒ [u] = [v] = f(v)

Aplicando el primer teorema de isomorfismo a f , obtenemos

G/(F ∩G) ∼= (F+G)/F.

Page 78: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

66 CAPÍTULO 2. APLICACIONES LINEALES

Corolario 14 (Tercer teorema de isomorfismo)Si F ⊂ G son subespaciosde E, entonces

(E/F)/(G/F) ∼= E/G.Demostración: Observemos primero que F ⊂ G implica que si una clase [u]de E/F tiene un representante en G, todos sus elementos son de G. Por tanto,G/F es un subconjunto de E/F. Definimos la aplicación

f : E/F→ E/G

dada porf([u]F) = [u]G

donde [u]F indica la clase de u módulo F, y [u]G, la clase de u módulo G.Estaaplicación está bien definida, ya que elementos equivalentes respecto a F tambiénson equivalentes respecto a G.

f es lineal:

f([u]F + [v]F) = f([u+ v]F) = [u+ v]G = [u]G + [v]G = f([u]F) + f([v]F)

f es claramente exhaustiva.Calculemos ker f :

ker f = {[u]F tales que [u]G = [0]G} = {[u]F tales que u ∈ G} = G/FAplicando el primer teorema de isomorfismo,

(E/F)/(G/F) ∼= E/G.

Observación 38 Si la dimensión del espacio E es finita, Im f y E/ ker f tienenla misma dimensión. Son, por tanto, espacios isomorfos. ¿Qué nos dice de nue-vo, pues, el primer teorema de isomorfismo? En primer lugar, nos dice que elresultado es válido para cualquier espacio vectorial, de dimensión finita o no.Aún más importante es, sin embargo, el hecho de que se pueda definir un isomor-fismo de una manera muy natural y sin intervención de base. Una aplicaciónlineal definida sin utilizar ninguna base, o que permita una definición de esetipo, se llama una aplicación canónica. Todos los isomorfismos establecidos enlas tres demostraciones de este apartado son isomorfismos canónicos.

A continuación veamos algunos ejemplos para ilustrar los tres teoremas deisomorfismo.

Ejemplo 53 Consideremos la aplicación lineal

f : R2 → R

dada porf(x, y) = x− y

Page 79: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

2.5. TEOREMAS DE ISOMORFISMO 67

El núcleo de f corresponde en el plano a una recta que pasa por (0, 0). R2/ ker fes el conjunto de rectas paralelas a ker f :

R2/ ker f = {x− y = a, a ∈ R}

Cada una de estas rectas corta al eje de las x en un punto (a, 0), y su imagenpor f es, precisamente, a. El isomorfismo

g : R2/ ker f → Im f

definido de la forma

g([(x, y)]) = f(x, y) = x− y

hace corresponder a cada recta de R2/ ker f su intersección con el eje de las x.

Ejemplo 54 Consideremos

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) en R3

Sean F y G los subespacios vectoriales de R3 definidos por

F = he1, e2i, G = he1, e3i

Entonces

F ∩G = he1i y F+G = R3

Por tanto, (F+G)/F es el conjunto de planos de R3 paralelos a F y G/(F∩G)es el conjunto de rectas del plano G paralelas a F∩G. El isomorfismo usado enla demostración del segundo teorema de isomorfismo hace corresponder a cadarecta de G paralela a F ∩G el plano de R3 paralelo a F que la contiene.

Ejemplo 55 Sean

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) en R3

Consideremos los subespacios de R3

F = he1i y G = he1, e2i

Entonces R3/F es el conjunto de rectas de R3 paralelas a F y G/F es el conjuntode rectas de G paralelas a F. Cada clase de (R3/F)/(G/F) está formada por todaslas rectas (paralelas a F) situadas en un plano paralelo a G. El isomorfismousado en la demostración del tercer teorema de isomorfismo hace correspondera cada una de esas clases el plano paralelo a G que la contiene (que es unelemento de R3/G).

Page 80: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

68 CAPÍTULO 2. APLICACIONES LINEALES

2.6. El espacio de las aplicaciones linealesConsideremos el conjunto L(E,F) de todas las aplicaciones lineales de E en

F. Hay una manera natural de definir una suma y un producto por elementosdel cuerpo K en L(E,F):Si f, g ∈ L(E,F), definimos la suma f + g por

(f + g)(u) = f(u) + g(u) para todo u ∈ ESi λ ∈ K, definimos el producto λf por

(λf)(u) = λf(u) para todo u ∈ ELas aplicaciones f+g y λf son, claramente, lineales. L(E,F) con estas dos opera-ciones satisface todos los axiomas de espacio vectorial, por lo que lo llamaremosespacio vectorial de las aplicaciones de E en F.

Teorema 45 Si E y F son de dimensión finita, L(E,F) también lo es y dimL(E,F) =dimE · dimFDemostración: Sea u1, . . . ,un una base de E, y v1, . . . ,vm una base de F.Definimos

fij : E→ F, i = 1, . . . , n, j = 1, . . . ,m

de la forma

fij(uk) = 0 si k 6= i

fij(ui) = vj

El teorema quedará demostrado si probamos que estas nm aplicaciones formanuna base de L(E,F). Para ello, tenemos que ver que {fij} genera L(E,F), y quees linealmente independiente.

{fij} genera L(E,F): Sea f : E → F lineal. Supongamos que f(uk) =Pmj=1 α

jkvj . Entonces

f =nXi=1

mXj=1

αjifij

ya que para todo uk nXi=1

mXj=1

αjifij

(uk) ={fij} es linealmente independiente: En efecto,nXi=1

mXj=1

αjifij = 0⇒nXi=1

mXj=1

αjifij(uk) = 0 ∀k = 1, . . . , n⇒

⇒mXj=1

nXi=1

αjifij(uk) = 0 ∀k = 1, . . . , n⇒

mXj=1

αjkvj = 0 ∀k = 1, . . . , n⇒ αji = 0 ∀k = 1, . . . , n, ∀j = 1, . . . ,m.

Page 81: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

2.6. EL ESPACIO DE LAS APLICACIONES LINEALES 69

La matriz de la aplicación {fij} respecto a las bases u1, . . . ,un y v1, . . . ,vmes la matriz Ej

i formada por 0 en todas las posiciones, excepto en la columnai, fila j, donde aparece un 1. Estas matrices forman una base de Mm×n(K). Laaplicación

L(E,F)→Mm×n(K)

tal quefij 7−→ Eij , i = 1, . . . , n, j = 1, . . . ,m

es un isomorfismo entre estos dos espacios vectoriales. Este isomorfismo asociaa cada aplicación lineal f su matriz en las bases consideradas.

Page 82: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

70 CAPÍTULO 2. APLICACIONES LINEALES

Page 83: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 3

Matrices

3.1. Definición de matrizDefinición 33 Dados dos conjuntos finitos I = {1, 2, ...,m} y J = {1, 2, ..., n},se llama matriz de orden m × n con coeficientes en un conjunto K atoda aplicación de I × J en K, tal que a cada par de elementos (i, j) ∈ I × J lehace corresponder el elemento aij de K. Dicha matriz es expresable como unatabla rectangular de m filas y n columnas formada por elementos de K.Denotaremos las matrices por letras mayúsculas. De este modo, si A es una

matriz de orden m × n, designaremos por aij el coeficiente de A que ocupa ellugar correspondiente a la i-ésima fila y la j-ésima columna. De esta manera Ase escribirá como sigue:

A =

a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

indicando que los coeficientes aij de A son elementos de K para todo i =1, 2, ...,m y j = 1, 2, ..., n. Abreviadamente escribiremos A = (aij) cuando nohaya confusión en el orden de la matriz, y recordando que el subíndice i recorrelas filas y el j recorre las columnas de la matriz A. Cuando m = n, la matrizse llama cuadrada de orden n. Si m = 1 la matriz se llama matriz fila deorden n y si n = 1, se llama matriz columna de orden m.Denotaremos por Mm×n(K) el conjunto de matrices de orden m × n con

coeficientes en el conjunto K. Así A ∈Mm×n(K) significa que A es una matrizde orden m × n con coeficientes en el conjunto K. Escribiremos simplementeMn(K) cuando las matrices sean cuadradas de orden n.

Observación 39 En la mayor parte de los casos, los coeficientes de las matricesserán elementos de un cuerpo conmutativo K pero, en general los coeficientes delas matrices pueden ser cualquier objeto de la matemática (números, polinomios,

71

Page 84: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

72 CAPÍTULO 3. MATRICES

matrices, funciones, etc.). Cuando K = R (K = C) las matrices se llamanreales (complejas).

Definición 34 La igualdad de dos matrices A,B ∈Mm×n(K) se define porsu identidad: A = B si y sólo si aij = bij para todo i = 1, 2, ...,m y j = 1, 2, ..., n.Por consiguiente dos matrices iguales tienen el mismo orden. En otras palabras,diremos que dos matrices son iguales cuando son del mismo orden y tienen losmismos coeficientes.

Ejemplo 56 En un espacio vectorial de dimensión finita un vector cualquierapuede representarse por una matriz después de haber elegido una base: los co-eficientes de la matriz son las coordenadas del vector en dicha base. Podemosescribirlo bien como una matriz fila o bien columna. Debe observarse, sin em-bargo, que un vector no es una matriz ya que un cambio de base cambia lascomponentes del vector y por tanto la matriz, mientras que el vector permaneceinvariable. Por ejemplo, el vector de componentes (1, 2, 3) en la base canónicade R3 tiene asociado las siguientes matrices columna y fila en dicha base: 1

23

y¡1 2 3

¢Ejemplo 57 Los sistemas lineales quedan perfectamente caracterizados por ma-trices. Así, por ejemplo, el siguiente sistema lineal:

3x− 2y + z = 12x+ 3y − z = 0

¾define la matriz µ

3 −2 12 3 −1

¶formada por los coeficientes de las incógnitas.

Ejemplo 58 Siendo E un espacio vectorial de dimensión m sobre un cuerpoconmutativo K de base (u1,u2, ...,um) y n vectores v1,v2, ...,vn de E expresadosen dicha base como:

vj =mXi=1

aijuj = a1ju1 + · · ·+ aijui + · · ·+ amjum (j = 1, 2, ..., n)

Las coordenadas aij de estos n vectores pueden estar dispuestas según una matrizcomo la siguiente:

a11 · · · a1j · · · a1n...

. . ....

...ai1 · · · aij · · · ain...

.... . .

...am1 · · · amj · · · amn

Page 85: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.1. DEFINICIÓN DE MATRIZ 73

Esta matriz es la matriz de las coordenadas de estos n vectores de E en labase considerada. Obsérvese que los vectores están colocados por columnas en lamatriz.

3.1.1. Tipos especiales de matrices

Definición 35 Dada la matriz A, sean i1, i2, ..., iq ciertos índices de filas yj1, j2, ..., jp ciertos índices de columnas. La matriz q×p obtenida, a partir de A,suprimiendo en ella las filas y columnas de índices distintos a los considerados,se dice que es una submatriz de A. Si los índices de filas y columnas elegidosson consecutivos la matriz que resulta la llamaremos caja o bloque de la matrizA dada.

Ejemplo 59 Dada la matriz

A =

1 2 −1 5 30 −1 1 1 2−3 −4 2 −2 −2

de orden 3× 5. La matriz siguiente

B =

µ0 1 2−3 2 −2

¶es una submatriz de A, obtenida suprimiendo la primera fila y las columnas 2 y4; obsérvese que B no es una caja de A ya que los índices elegidos (i1 = 2, i2 =3, j1 = 1, j2 = 3 y j3 = 5) para las columnas no son consecutivos. En cambio, lamatriz siguiente

C =

µ −1 5 31 1 2

¶obtenida suprimiendo la tercera fila y las columnas 1 y 2, es una caja de A.Obsérvese que en este caso se han elegido i1 = 1, i2 = 2, j1 = 3, j2 = 4 y j3 = 5.

Observación 40 Si trazamos paralelas a los bordes de la tabla rectangular, lamatriz se divide en cierto número de submatrices o cajas. Así, por ejemplo,la matriz

B =

a b ca0 b0 c0

d ed0 e0

α β γ λ µ

se ha dividido en cuatro cajas. Recíprocamente, podemos representar B comola yuxtaposición de cuatro cajas en un determinado orden, teniendo presenteque las cajas escritas en un misma fila han de tener el mismo número de filas,y las de una misma columna el mismo número de columnas. De este modo Bpuede considerarse como una matriz con coeficientes en un conjunto formadopor elementos que son matrices. En suma, podemos expresar B como:

B =

µB11 B12B21 B22

Page 86: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

74 CAPÍTULO 3. MATRICES

donde, por ejemplo,

B12 =

µd ed0 e0

¶Siguiendo con este procedimiento podemos afirmar que cualquier matriz puede

considerarse como la yuxtaposición ordenada por filas de varias matrices colum-na o bien como la yustaposición ordenada por columnas de matrices fila. De estemodo, si

A =

a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

es una matriz de orden m× n, podemos escribir

A =

F1F2...

Fm

=¡C1 C2 · · · Cn

¢

donde Fi y Cj representan matrices fila de orden n y matrices columna de ordenm correspondientes a la i-fila y j-columna respectivamente de la matriz A. Porejemplo, la matriz B se escribe como

B =

F1F2F3

=¡C1 C2 C3 C4

¢donde por ejemplo

C3 =

cc0

γ

y F2 =¡a0 b0 c0 d0 e0

¢Supongamos ahora que K es un cuerpo conmutativo. Sea A un elemento de

Mm×n(K). Podemos expresar A como una matriz columna en la que cada filarepresenta un vector de Kn o bien como una matriz fila en la que cada columnaes un vector de Km, en ambos casos habrá que tomar ciertas bases en las quese expresen los vectores en cuestión. Los vectores así considerados son llamadosrespectivamente vectores fila y vectores columna de la matriz A. Por tanto,una matriz deMm×n(K) puede considerarse como una fila de vectores columnao bien como una columna de vectores fila.

Definición 36 Si A es una matriz cuadrada de orden n, se llama diagonalprincipal de A a los elementos de la forma aii, i = 1, 2, ..., n. Se llama trazade A, denotándose por tr A, a la suma de los elementos de la diagonal principal,es decir,

tr A =nXi=1

aii

Page 87: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.1. DEFINICIÓN DE MATRIZ 75

Definición 37 Una matriz cuadrada se llama diagonal cuando todos los ele-mentos situados fuera de la diagonal principal son nulos:

aij = 0 i 6= j

Las matrices diagonales son de la forma siguiente:a11 · · · 0 · · · 0...

. . ....

...0 · · · aii · · · 0...

.... . .

...0 · · · 0 · · · ann

Una matriz diagonal se llama escalar cuando todos los elementos de la diagonalprincipal son iguales:

aii = k i = 1, 2, ..., n

En particular, cuando k = 1, se llama la matriz identidad de orden n y sedenota por In o simplemente I.

1 · · · 0 · · · 0.... . .

......

0 · · · 1 · · · 0...

.... . .

...0 · · · 0 · · · 1

Definición 38 Una matriz cuadrada se llama triangular inferior (superi-or) cuando todos los elementos que están por encima (debajo) de la diagonalprincipal son nulos. Por ejemplo,

A =

a11 0 · · · 0a21 a22 · · · 0...

.... . .

...an1 an2 · · · ann

es una matriz triangular inferior. Obsérvese que aij = 0 cuando i > j (i < j) yla matriz es triangular inferior (superior).

Ejemplo 60 Escribir la matriz real A de orden 2× 3 tal que aij = (−1)i+j.Solución: Se tiene

A =

µ1 −1 1−1 1 −1

¶puesto que, por ejemplo, a23 = (−1)2+3 = (−1)5 = −1.

Page 88: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

76 CAPÍTULO 3. MATRICES

Ejemplo 61 ¿Cuándo son iguales las matrices siguientes?µ3 t− 12t u

¶yµ

t 2vu+ 1 t+ w

¶Solución: Dos matrices son iguales cuando son del mismo orden y tienen

sus coeficientes iguales. Por tanto

3 = t

t− 1 = 2v

2t = u+ 1

u = t+ w

De aquí se obtiene, t = 3, v = 1, u = 5 y w = 2. Entonces las matrices soniguales e iguales a la matriz µ

3 26 5

3.2. Espacio vectorial de las matricesSea K un cuerpo conmutativo. Las operaciones que vamos a definir a con-

tinuación tienen como objetivo dotar al conjuntoMm×n(K) de una estructurade espacio vectorial sobre K.

3.2.1. Suma de matrices

Definición 39 Sean A = (aij) y B = (bij) dos elementos cualesquiera deMm×n(K). Se define la adición de A y B como la matriz C = (cij) deMm×n(K) tal que cij = aij + bij para todo i = 1, 2, ...,m y j = 1, 2, ..., n.Simbólicamente escribimos

A+B = C ⇔ aij + bij = cij

A la matriz A+B se la llama suma de A y B.

Teorema 46 El conjunto Mm×n(K) dotado con la adición de matrices es ungrupo conmutativo.Demostración: Es fácil comprobar los axiomas de grupo:

1. Asociativa: Para todo A,B,C ∈Mm×n(K) se cumple

A+ (B + C) = (A+B) + C

2. Conmutativa: Para todo A,B ∈Mm×n(K) se cumple

A+B = B +A

Page 89: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.2. ESPACIO VECTORIAL DE LAS MATRICES 77

3. Elemento neutro: La matriz llamada nula, cuyos elementos son todosiguales e iguales al cero de K, es el elemento neutro. Esta matriz sedenota por O = (0) y cumple

A+O = O +A = A

para todo A ∈ Mm×n(K); obsérvese que hay una matriz nula para cadaorden de las matrices.

4. Elemento opuesto: Una matriz admite siempre una matriz opuesta. Sellama matriz opuesta de A a la matriz que denotamos por −A cuyoscoeficientes son los opuestos de los elementos de A en K. Si A = (aij),entonces −A = (−aij). Se cumple que

A+ (−A) = (−A) +A = O

para cada A ∈Mm×n(K).

Ejemplo 62 La matriz suma de dos matrices del mismo orden se calcula suman-do cada coeficiente de una con el correspondiente coeficiente de la otra:µ

1 2 5−1 0 8

¶+

µ −1 2 30 1 −4

¶=

µ0 4 8−1 1 4

3.2.2. Multiplicación escalar de matrices

Definición 40 Sea A = (aij) un elemento deMm×n(K) y λ ∈ K. Se define lamultiplicación escalar λA como la matriz B = (bij) de Mm×n(K) tal quebij = λaij para todo i = 1, 2, ...,m y j = 1, 2, ..., n. Simbólicamente escribimos

λA = B ⇐⇒ λaij = bij

A la matriz λA se la llama producto de λ por A.

Teorema 47 La multiplicación escalar de matrices cumple las siguientes propiedades:

1. λ(A+B) = λA+ λB

2. (λ+ µ)A = λA+ µA

3. (λµ)A = λ(µA)

4. 1A = A

para todo λ, µ ∈ K y A,B ∈Mm×n(K); hemos denotado por 1 la unidad deK.Demostración: Es una simple comprobación.

Page 90: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

78 CAPÍTULO 3. MATRICES

Ejemplo 63 El producto de un número por una matriz se calcula multiplicandocada coeficiente de la matriz por dicho número:

6

µ1 2 03 −4 −2

¶=

µ6 12 018 −24 −12

Como consecuencia de los dos teoremas anteriores tenemos el siguiente re-sultado.

Teorema 48 El conjunto Mm×n(K) dotado con las operaciones de adición yde multiplicación escalar tiene estructura de espacio vectorial sobre K.

Demostración: Es consecuencia inmediata de los dos teoremas anteriores.

Observación 41 El hecho de que Mm×n(K) sea un espacio vectorial permiteque todos las nociones relativas a los espacios vectoriales puedan aplicarse a lasmatrices: combinación lineal, dependencia e independencia lineal, base, dimen-sión, etc.

Teorema 49 El espacio vectorial de las matrices Mm×n(K) es de dimensiónm · n.Demostración: Sea A cualquier elemento deMm×n(K), se tiene

A =nXj=1

mXi=1

aijEij

siendo Eij una matriz deMm×n(K) que tiene todos sus coeficientes nulos, salvoel que está situado en la intersección de la fila i con la columna j y que es iguala la unidad de K

Eij =

0 · · · 0 · · · 0.... . .

......

0 · · · 1 · · · 0...

.... . .

...0 · · · 0 · · · 0

Page 91: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.2. ESPACIO VECTORIAL DE LAS MATRICES 79

En efecto,

A =

a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

= a11

1 0 · · · 00 0 · · · 0....... . .

...0 0 · · · 0

+ · · ·+

a1n

0 0 · · · 10 0 · · · 0....... . .

...0 0 · · · 0

+ · · ·+ am1

0 0 · · · 00 0 · · · 0....... . .

...1 0 · · · 0

+ · · ·+

amn

0 0 · · · 00 0 · · · 0....... . .

...0 0 · · · 1

De esto se sigue que estas m · n matrices Eij forman un sistema generadordel espacio vectorial Mm×n(K); además, por la forma que tienen es inmediatocomprobar que son independientes. En efecto,

nXj=1

mXi=1

λijEij = (λij) = (0) =⇒ λij = 0

para todo i = 1, 2, ..., n y j = 1, 2, ...,m.Por tanto, (Eij : i = 1, 2, ...,m; j = 1, 2, ..., n) es una base de Mm×n(K); a

esta base se la llama base natural o canónica deMm×n(K).

Ejemplo 64 La base canónica deM2(R) esµµ1 00 0

¶,

µ0 10 0

¶,

µ0 01 0

¶,

µ0 00 1

¶¶Obsérvese que cualquier matriz, como por ejemplo

A =

µ1 5−2 8

¶se escribe como combinación lineal de las matrices de esta baseµ

1 5−2 8

¶= 1

µ1 00 0

¶+ 5

µ0 10 0

¶− 2

µ0 01 0

¶+ 8

µ0 00 1

¶=

= E11 + 5E12 − 2E21 + 8E22Ejemplo 65 Probar que el conjunto T de las matrices triangulares inferioresde Mn(K) forman un subespacio vectorial de Mn(K). Probar también que sudimensión es n(n+ 1)/2.

Page 92: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

80 CAPÍTULO 3. MATRICES

Demostración: Es claro que O ∈ T . Si A,B son dos matrices triangularesinferiores deMn(K), entonces

A+B =

a11 0 · · · 0a21 a22 · · · 0...

.... . .

...an1 an2 · · · ann

+

b11 0 · · · 0b21 b22 · · · 0...

.... . .

...bn1 bn2 · · · bnn

=

=

a11 + b11 0 · · · 0a21 + b21 a22 + b22 · · · 0

......

. . ....

an1 + bn1 an2 + bn2 · · · ann + bnn

es decir, la matriz A+B es una matriz triangular. Además

λA = λ

a11 0 · · · 0a21 a22 · · · 0...

.... . .

...an1 an2 · · · ann

=

λa11 0 · · · 0λa21 λa22 · · · 0...

.... . .

...λan1 λan2 · · · λann

es decir, la matriz λA es una matriz triangular. Por tanto, T es un subespaciodeMn(K).Observemos que si A ∈ T , entonces

A =

a11 0 · · · 0a21 a22 · · · 0...

.... . .

...an1 an2 · · · ann

= a11

1 0 · · · 00 0 · · · 0....... . .

...0 0 · · · 0

+ a21

0 0 · · · 01 0 · · · 0....... . .

...0 0 · · · 0

+

a22

0 0 · · · 00 1 · · · 0....... . .

...0 0 · · · 0

+ · · ·+ ann

0 0 · · · 00 0 · · · 0....... . .

...0 0 · · · 1

es decir, las matrices triangulares E11, E21, E22, E31, ..., Enn forman un sistemagenerador de T . Es claro que por su forma son también linealmente independi-entes. Por tanto, constituyen una base de T . Su dimensión es

dimT = 1 + 2 + 3 + · · ·+ (n− 1) + n =n(1 + n)

2

obsérvese la sucesión de elementos de la base (E11, E21, E22, E31, E32, E33, E41, ..., Enn).

3.3. Matriz asociada a una aplicación linealSean E y F dos espacios vectoriales de dimensiones finitas sobre un cuerpo

K. Supongamos que B = (u1, ...,un) y B0 = (v1, ...,vm) son bases de E y F

Page 93: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.3. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 81

respectivamente. Sabemos que una aplicación lineal f : E → F queda unívoca-mente determinada al expresar los vectores f(u1), ..., f(un) en la base B0 de F.De este modo, tenemos

f(ui) = a1iv1 + · · ·+ amivm (i = 1, ..., n)

Definición 41 Se llama matriz de f respecto de las bases B de E y B0 de F ala matriz de orden m × n con coeficientes en K cuya columna i− ésima estáconstituida por las coordenadas de f(ui) (i = 1, ..., n) en la base B0 de F.

A esta matriz se la llama también matriz asociada a la aplicación lineal f enlas bases de E y F. Es frecuente denotarla por M(f,B,B0), o simplemente, Mf ,cuando no haya confusión posible.

Teorema 50 Sean E y F dos espacios vectoriales de dimensiones finitas sobreun cuerpo K. Supongamos que B = (u1, ...,un) y B0 = (v1, ...,vm) son bases deE y F respectivamente. Dada una aplicación lineal f : E → F , la aplicación

φ : L(E,F) → Mm×n(K)

definida porφ(f) =M(f,B,B0)

es biyectiva.Demostración: Fijadas las bases B = (u1, ...,un) y B0 = (v1, ...,vm) de E yF, respectivamente. Dada cualquier matriz A = (aij) deMm×n(K), ésta definede manera única n vectores de F por las siguientes fórmulas

wj = a1jv1 + · · ·+ amjvm (j = 1, ..., n)

Entonces sabemos que existe una aplicación f : E → F , y sólo una, tal quef(uj) = wj (j = 1, ..., n). Obsérvese entonces que A es la matriz asociada a fen las bases consideradas.

Observación 42 En particular, toda matriz deMm×n(K) puede ser consider-ada como la matriz asociada a la aplicación lineal de Kn en Km referidos a susrespectivas bases canónicas.

Page 94: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

82 CAPÍTULO 3. MATRICES

Ejemplo 66 Sea f : R2 → R3 una aplicación lineal definida por

f(x, y) = (x+ y, x+ y, x+ y)

Hallar su matriz asociada a las bases canónicas de R2 y R3.Solución: Se cumple

f(1, 0) = (1, 1, 1)

f(0, 1) = (1, 1, 1)

Por tanto,

Mf =

1 11 11 1

Ejemplo 67 Dada la matriz

M =

µ1 2 30 −1 1

¶Escribir la aplicación lineal asociada a esta matriz.Solución: Es claro que M ∈M2×3(R). Por tanto, f : R3 → R2 y cumple

f(e1) = e01f(e2) = 2e01 − e02f(e3) = 3e01 + e02

Por tanto,

f(x, y, z) = xf(e1) + yf(e2) + zf(e3)

= xe01 + y(2e01 − e02) + z(3e01 + e02)= (x+ 2y + 3z)e01 + (−y + z)e02

es decir,f(x, y, z) = (x+ 2y + 3z,−y + z)

3.4. Producto de matrices

Sean E,F,G tres espacios vectoriales de dimensiones respectivasm,n, p sobreK, y supongamos que (ui : i = 1, ..., n), (vj : j = 1, ...,m), (wk : k = 1, ..., p) sonbases de E,F y G, respectivamente. Consideremos las tres aplicaciones linealesf, g, g ◦ f

Page 95: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.4. PRODUCTO DE MATRICES 83

y las tres matrices asociadas en las bases dadas Mf = (αij),Mg = (βjk) yMg◦f = (γik). Observemos que Mf ∈ Mm×n(K), Mg ∈ Mp×m(K) y Mg◦f ∈Mp×n(K) y que

(g ◦ f)(ui) =

pXk=1

γkiwk

f(ui) =mXj=1

αjivj

g(vj) =

pXk=1

βkjwk

Entonces

(g ◦ f)(ui) = g(f(ui)) = g(mXj=1

αjivj) =mXj=1

αjig(vj)

=mXj=1

αji

pXk=1

βkjwk =mXj=1

pXk=1

αjiβjkwk

=

pXk=1

mXj=1

αjiβkjwk =

pXk=1

wk

mXj=1

αjiβkj

Por tanto

γki =mXj=1

αjiβkj

que se puede representar por el esquema siguiente

Obsérvese que el coeficiente γki de la matriz deMg◦f se obtiene de los elementos

Page 96: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

84 CAPÍTULO 3. MATRICES

de la fila k de Mg (factor de la izquierda) y de los elementos de la columna i deMf (factor de la derecha); se dice entonces que se ha efectuado el producto dela fila k por la columna i. De este modo, tenemos el resultado siguiente

Mg◦f =MgMf

y, en general, la siguiente definición.

Definición 42 Dadas las matrices A = (aik) de Mm×p(K) y B = (bkj) deMp×n(K), se define lamultiplicación de A y B como la matriz C deMm×n(K)tal que

cij = ai1b1j + ai2b2j + · · ·+ aipbpj (i = 1, ...,m; j = 1, ..., n)

Simbólicamente escribimos

AB = C ⇐⇒ cij = ai1b1j + ai2b2j + · · ·+ aipbpj

A la matriz AB se la llama producto de A y B.

Observación 43 La multiplicación de dos matrices es una operación que nosiempre puede realizarse. Para que pueda hacerse se ha de cumplir la siguientecondición: el número de columnas de la primera matriz (factor de la izquierda)ha de coincidir con el número de filas de la segunda matriz (factor de la derecha).Si A es una matriz de orden m×p, entonces sólo podemos multiplicarla por unamatriz B que sea del orden p × n. En tal caso, la matriz producto A · B es deorden m×n. Es importante pues observar bien como están puestos los númerosm,n y p de los órdenes de las matrices.La operación se efectúa de la siguiente manera: si designamos por C la matriz

que resulta de la multiplicación de A por B, tenemos

cij = ai1b1j + ai2b2j + · · ·+ ainbnj

es decir, multiplicamos término a término la fila i de A por la columna j de B,sumando después todos los productos efectuados.Ejemplo: µ

1 −2 32 1 −3

¶ 1 20 −1−1 5

=

µ1 · 1 + (−2) · 0 + 3 · (−1) 1 · 2 + (−2) · (−1) + 3 · 52 · 1 + 1 · 0 + (−3) · (−1) 2 · 2 + 1 · (−1) + (−3) · 5

¶=

µ −2 195 −12

¶Observemos los órdenes: 2× 3 por 3× 2 debe obtenerse 2× 2.

Page 97: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.5. IMAGEN DE UN VECTOR POR DE UNA APLICACIÓN LINEAL 85

3.5. Imagen de un vector por de una aplicaciónlineal

Teorema 51 Sean E y F dos espacios vectoriales de dimensiones finitas sobreun cuerpo K. Supongamos que B = (u1, ...,un) y B0

= (v1, ...,vm) son bases de Ey F respectivamente. Sea f : E → F una aplicación lineal que tiene como matrizasociada en las bases B y B0

la matriz A = (aij) ∈Mm×n(K). Consideremosque (x1, ..., xn) son las coordenadas de v en B y (y1, ..., ym) son las coordendasde f(v) en B0. Entonces se cumple la siguiente fórmula matricial a11 · · · a1n

.... . .

...am1 · · · amn

x1

...xn

=

y1...ym

Demostración: En efecto, puesto que

v = x1u1 + · · ·+ xnun

entonces,f(v) = x1f(u1) + · · ·+ xnf(un)

Esta ecuación puede escribirse matricialmente como sigue y1...ym

= x1

a11...

am1

+ · · ·+ xn

a1n...

amn

=

¡A11 · · · A1n

¢ x1...xn

donde

A1i =

a1i...

ami

(i = 1, ..., n)

Ahora bien

¡A11 · · · A1n

¢=

a11 a1n... · · · ...am1 amn

= A

Por tanto, tenemos la siguiente fórmula matricial para calcular la imagen de unvector

Y = AX

Page 98: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

86 CAPÍTULO 3. MATRICES

siendo

X =

x1...xn

y Y =

y1...ym

Ejemplo 68 Dadas las matrices

A =

µ1 −2 33 1 2

¶, B =

2 0 11 1 −2−1 3 1

, C =

1 0 3 23 −1 2 −12 0 1 −1

comprobar que

(AB)C = A(BC)

Solución: Se tiene por un lado

AB =

µ1 −2 33 1 2

¶ 2 0 11 1 −2−1 3 1

=

µ −3 7 85 7 3

(AB)C =

µ −3 7 85 7 3

¶ 1 0 3 23 −1 2 −12 0 1 −1

=

µ34 −7 13 −2132 −7 32 0

¶por otro lado

BC =

2 0 11 1 −2−1 3 1

1 0 3 23 −1 2 −12 0 1 −1

=

4 0 7 30 −1 3 310 −3 4 −6

A(BC) =

µ1 −2 33 1 2

¶ 4 0 7 30 −1 3 310 −3 4 −6

=

µ34 −7 13 −2132 −7 32 0

3.6. El anillo de las matrices cuadradasTeorema 52 El conjunto Mn(K) de las matrices cuadradas de orden n sobreK, provisto de las operaciones de adición y multiplicación es un anillo uni-tario, no conmutativo, que posee divisores de cero, isomorfo al anillo L(E), condim E = n.Demostración: Según el teorema 5, Mn(K) puede considerarse como el con-junto de las matrices asociadas a los endomorfismos del espacio vectorial E dedimensión n sobre K. La biyección

φ : L(E) −→ Mn(K)f −→ φ(f) =Mf

Page 99: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.6. EL ANILLO DE LAS MATRICES CUADRADAS 87

nos permite definir sobreMn(K) dos operaciones internas A+B y AB, adicióny multiplicación de matrices respectivamente. Esta biyección y la estructura deanillo de L(E) nos muestran queMn(K), provisto de las operaciones de adicióny multiplicación de matrices, tiene también estructura de anillo y que estos dosanillos son isomorfos.La unidad de este anillo es la matriz asociada a la identidad de E, es decir,

la matriz In. Como L(E), este anillo no es conmutativo, como se puede ver enel siguiente ejemplo µ

1 10 1

¶µ0 11 0

¶=

µ1 11 0

¶µ0 11 0

¶µ1 10 1

¶=

µ0 11 1

¶Igual que L(E), Mn(K) tiene divisores de cero. El siguiente ejemplo muestraeste hecho µ

1 00 0

¶µ0 01 1

¶=

µ0 00 0

Observación 44 De este teorema, se sigue que las matrices cuadradas de ordenn sobre K satisfacen las siguientes propiedades:

1. (AB)C = A(BC)

2. AB 6= BA

3. AIn = InA = A

4. A(B + C) = AB +AC y (A+B)C = AC +BC

5. AB = O no implica A = O o B = O

6. AB = AC no implica B = C

7. An = AAn−1, para todo número natural n > 1

Teorema 53 Si f es un automorfismo de un espacio vectorial E de dimensiónn sobre K, entonces se cumple

Mf−1 =M−1f

Demostración: En efecto, si f es un automorfismo, existe f−1, y satisface lasiguiente relación

f ◦ f−1 = f−1 ◦ f = IdE

conduceMf Mf−1 =Mf−1Mf = In

y, por tanto, Mf−1 =M−1f .

Page 100: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

88 CAPÍTULO 3. MATRICES

Definición 43 Dada una matriz A de Mn(K), se dice que A tiene inversa oque es inversible, si existe una matriz B deMn(K) tal que

AB = BA = In

En tal caso la matriz B se representa por A−1 y se llama la matriz inversade A.

Recuérdese que el conjunto de automorfismos de un espacio vectorial E sobreun cuerpo conmutativo K es un grupo respecto a la composición de aplicaciones.Este grupo se llama grupo lineal de E y se representa por GL(E).Teorema 54 El conjunto de las matrices inversibles deMn(K) es un grupo noconmutativo isomorfo a GL(E).Demostración: La biyección f 7−→Mf establecida en el teorema 5 demuestraenseguida este hecho.

Observación 45 Si dos matrices A,B deMn(K) son inversibles, se sigue que:

1. A−1 es única

2.¡A−1

¢−1= A

3. (AB)−1= B−1A−1

Es una simple consecuencia de que las matrices inversibles de Mn(K) for-man un grupo.

Ejemplo 69 Demostrar que la matriz

A =

1 1 11 1 11 1 1

verifica la relación An = 3n−1A.Solución: La demostración es por inducción. Para n = 1, es claro que se

cumple ya que A = A. Supongamos que la relación es cierta para n−1, es decir,An−1 = 3n−2A. Entonces

An = AAn−1 = A(3n−2A) = 3n−2A2

Ahora bien,

A2 =

1 1 11 1 11 1 1

2

=

3 3 33 3 33 3 3

= 3A

Por tanto,An = 3n−2(3A) = 3n−1A

Page 101: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.6. EL ANILLO DE LAS MATRICES CUADRADAS 89

Ejemplo 70 Demostrar que la matriz

A =

µ2 11 2

¶verifica la ecuación A2 + αA + βI2 = O, determinando los valores de α y β.Calcular A−1, si existe.Solución: Se tiene entoncesµ

2 11 2

¶2+ α

µ2 11 2

¶+ β

µ1 00 1

¶=

µ0 00 0

¶Ahora bien, µ

2 11 2

¶2=

µ5 44 5

¶por tanto, de la ecuación anterior se sigue queµ

5 + 2α+ β 4 + α4 + α 5 + 2α+ β

¶=

µ0 00 0

¶luego

5 + 2α+ β = 0

4 + α = 0

de donde α = −4 y β = 3. Entonces A satisface la ecuación siguiente

A2 − 4A+ 3I2 = O

Multiplicando la igualdad por A−1, suponiendo que existe, se tiene

A− 4I2 + 3A−1 = O

Por tanto,

A−1 =1

3(4I2 −A)

es decir

A−1 =1

3

µ2 −1−1 2

¶Obsérvese que

AA−1 =1

3

µ2 11 2

¶µ2 −1−1 2

¶=1

3

µ3 00 3

¶= I2

Page 102: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

90 CAPÍTULO 3. MATRICES

3.7. Trasposición de matrices

Definición 44 En el conjuntoMm×n(K) se define una operación que recibe elnombre de trasposición. Hallar la traspuesta de una matriz A deMm×n(K), esformar otra matriz At deMn×m(K) que se obtiene a partir de A cambiando susfilas por sus columnas. De manera general, A = (aij) se convierte en At = (a0ij)con a0ij = aji, i = 1, ..., n, j = 1, ...,m. A la matriz At se le llama traspuestade A.

Observación 46 Si E y F son dos espacios vectoriales de dimensiones finitassobre K, E y E∗, espacio dual de E, están referidos a dos bases duales, así comoF y F∗, entonces se cumple que

Mft = (Mf )t

para todo f ∈ L(E,F).

Teorema 55 De la definición, se obtienen las siguientes propiedades:

1. La trasposición es una aplicación biyectiva deMm×n(K) enMn×m(K)

2. (At)t = A, para todo A ∈Mm×n(K)

3. (A+B)t = At +Bt, para todo A,B ∈Mm×n(K)

4. (λA)t = λAt, para todo λ ∈ K y A ∈Mm×n(K)

5. (AB)t = BtAt

Demostración: (1) Es inmediato por la forma en que se efectúa la trasposiciónde matrices.(2) Si A = (aij), entonces At = (aji) y, por tanto, (At)

t= (aij) = A.

(3) Si A = (aij) yB = (bij), entonces A+ B = C = (cij) y cij = aij + bij.Por tanto, (A+B)t = Ct = (cji) = (aji + bji) = (aji) + (bji) = At +Bt.(4) Si A = (aij), entonces λA = C y cij = λaij. Por tanto, (λA)t = Ct =

(cji) = (λaji) = λ(aji) = λAt.(5) Si A = (aij) yB = (bij), entonces AB = C = (cij) y

cij = ai1b1j + ai2b2j + · · ·+ ainbnj

Por tanto,

(AB)t = Ct = (cji)

= (aj1b1i + aj2b2i + · · ·+ ajnbni)

= (b1iaj1 + b2iaj2 + · · ·+ bniajn)

= BtAt

Page 103: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.7. TRASPOSICIÓN DE MATRICES 91

Definición 45 Una matriz cuadrada A = (aij) de orden n se llama simétricasi cumple aij = aji, i = 1, ..., n y j = 1, ..., n. La matriz se llama antisimétricasi se cumple aij = −aji, i = 1, ..., n y j = 1, ..., n.Teorema 56 Sea A = (aij) una matriz cuadrada de orden n. Entonces secumplen las siguientes propiedades:

1. A es simétrica si y sólo si At = A

2. A es antisimétrica si y sólo si At = −A3. Si A es antisimétrica, entonces todos los elementos de la diagonal principal

son nulos

4. A es descomponible en suma de una matriz simétrica y otra antisimétrica

Demostración: (1) Si A = (aij) es simétrica, entonces A = (aij) = (aji) = At.Recíprocamente, si At = A, entonces es claro que la matriz es cuadrada y deorden el de A. Además, de At = A se sigue que aij = aji.(2) Si A = (aij) es antisimétrica, entonces A = (aij) = (−aji) = −(aji) =

−At. Recíprocamente, si At = −A, entonces es claro que la matriz es cuadraday de orden el de A. Además, de At = −A se sigue que aji = −aij, o sea queaij = −aji.(3) Si A = (aij) es antisimétrica, entonces A = (aij) = (−aji). Por tanto,

aii = −aii, luego aii = 0 para todo i = 1, ..., n.(4) Es claro que la matriz 1

2(A+At) es simétrica, pues·1

2(A+At)

¸t=1

2(At +A)

y que la matriz 12(A−At) es antisimétrica, pues·1

2(A−At)

¸t=1

2(At −A) = −

·1

2(A−At)

¸y además se cumple que

A =1

2(A+At) +

1

2(A−At)

y, en consecuencia, toda matriz cuadrada puede descomponerse en suma de unamatriz simétrica y otra antisimétrica.

Ejemplo 71 Dadas dos matrices A,B ∈Mn(K), probar que

1. AAt y AtA son simétricas

2. A,B simétricas no implica AB simétrica

3. Si A es inversible, entonces (At)−1=¡A−1

¢t

Page 104: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

92 CAPÍTULO 3. MATRICES

4. Si A y B son simétricas, entonces AB es simétrica si y sólo si AB = BA

Solución: (1) En efecto,

(AAt)t =¡At¢tAt = AAt

y del mismo modo se prueba que AtA es también simétrica.(2) En efecto, consideremos las matrices simétricas siguientes

A =

µ1 22 −1

¶y B =

µ −1 11 1

¶entonces

AB =

µ1 22 −1

¶µ −1 11 1

¶=

µ1 3−3 1

¶que no es simétrica.(3) Si A es inversible, existe A−1. Entonces

AA−1 = I

de donde(A−1A)t = At(A−1)t = I

Por tanto, (At)−1=¡A−1

¢t.

(4) Si AB es simétrica, entonces

AB = (AB)t = BtAt = BA = BA

luego, A y B conmutan. Recíprocamente, si AB = BA, entonces

(AB)t = BtAt = BA = AB

por tanto, AB es una matriz simétrica.

3.8. Cambios de base en un espacio vectorialTeorema 57 Si B1 = (u1, ...,un) y B2 = (v1, ...,vn) son dos bases de un es-pacio vectorial E sobre K, la matriz P que tiene por columna i las coordenadasde vi respecto de la base B1 es inversible; se le llama la matriz de cambio opaso de la base B1 a la base B2 y se cumple

X = PY y Y = P−1X

donde X y Y son las matrices columna asociadas a un vector v de E, X sonlas coordenadas de v en la base B1 y Y son las coordenadas de v en la base B2.Demostración: Consideremos la identidad de E

B2 IdE B1E −→ Evi → vi = β1iu1 + · · ·+ βniun (i = 1, ..., n)

Page 105: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.8. CAMBIOS DE BASE EN UN ESPACIO VECTORIAL 93

que es un automorfismo de E. Según la definición 9, este automorfismo tienecomo matriz asociada en la base B2 en el espacio de salida y B1 en el espaciode llegada, la siguiente matriz

P =

β11 · · · β1n...

. . ....

βn1 · · · βnn

que tiene por columna i las coordenadas de vi respecto de la base B1. Segúnel teorema 8, P es una matriz inversible. Si designamos por (x1, ..., xn) lascoordenadas de un vector v de E en la base B1 y por (y1, ..., yn) las coordenadasdel mismo vector en la base B2, se cumple

v = x1u1 + · · ·+ xnun = y1v1 + · · · ynvnSegún el teorema 6, podemos escribir esta igualdad en forma matricial comosigue

PY = X

o bienY = P−1X

Observación 47 Cuando se pasa de una base B a otra base B0se dice algu-

nas veces que B es la base ”antigua” y B0, la ”nueva”. También se dice que(x1, ..., xn) son las coordenadas ”antiguas” y (y1, ..., yn), las ”nuevas” de v. Seve enseguida que la matriz de paso P da las coordenadas antiguas en función delas nuevas.

Ejemplo 72 En R2 se consideran las bases B1 = (e1, e2) ,B2 = (u1,u2) yB3 = (v1,v2) tales que

u1 = e1

u2 = 2e1 + e2

y

v1 = e1

v2 = e1 + 4e2

Obtener las componentes del vector u = 2u1 + 5u2 en la base B3.Solución: Observemos el diagrama siguiente

IdR2 IdR2R2 −→ R2 −→ R2(ui) A (ei) B (vi)

Page 106: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

94 CAPÍTULO 3. MATRICES

siendo

A =

µ1 20 1

¶y B =

µ1 −140 1

4

¶entonces

IdR2R2 −→ R2(ui) BA (vi)

Por tanto

BA =

µ1 − 140 1

4

¶µ1 20 1

¶=

µ1 7

40 1

4

¶luego µ

1 74

0 14

¶µ25

¶=

µ43454

¶Por consiguiente

u =43

4v1 +

5

4v2

3.9. Cambios de base en una aplicación linealTeorema 58 Dados dos espacios vectoriales E,F de dimensiones finitas sobreK, B1 y B01 dos bases de E, B2 y B02 dos bases de F, P la matriz de paso de B1a B01 y Q la matriz de paso de B2 a B02, entonces para toda aplicación lineal fde E en F se cumple que

A0 = Q−1AP

siendo A =M(f,B1,B2) y A0 =M(f,B01,B02).

Demostración: Consideremos el diagrama

IdE f IdFE −→ E −→ F −→ FB01 P B1 A B2 Q−1 B02

entonces tenemosf = IdF ◦ f ◦ IdE

Por tantoA0 = Q−1AP

Observación 48 Se puede operar directamente sobre las matrices. Supongamosque X y X 0 son las coordenadas un vector de E en las bases B1 y B01 respecti-vamente, y Y y Y 0 son las coordenadas de un vector de F en las bases B2 y B02.Así tenemos, según el teorema 6, que

Y = AX

Page 107: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.9. CAMBIOS DE BASE EN UNA APLICACIÓN LINEAL 95

yY 0 = A0X 0

Por tantoQY 0 = APX 0

de donde multiplicando por la izquierda por Q−1 se sigue que

Y 0 = Q−1APX 0

Por tantoA0X 0 = Q−1APX 0

es decir(A0 −Q−1AP )X 0 = O

para todo X 0. Aplicando esta última fórmula a las matrices columna asociadasa los m vectores de B01 se deduce que

A0 = Q−1AP

Corolario 15 Para todo endomorfismo f de E se tiene

A0 = P−1AP

siendo A y A0 las matrices asociadas a f respecto a la base B1 y B01, respectiva-mente; y P la matriz de paso de B1 a B01.Demostración: Es inmediato a partir del teorema 13.

Ejemplo 73 Obtener la matriz asociada a una aplicación lineal f : R2 → R3definida por

f(1, 2) = (1, 1, 2)

f(2, 3) = (2, 10, 1)

al expresarla en la base B1 = ((1, 1), (1, 3)) de R2 y B2 = ((1, 0, 1), (1, 1, 0), (0, 0, 2))de R3.Solución: Supongamos que B0 = (e1, e2) y B00 = (u1,u2,u3) son las bases

canónicas de R2 y R3 respectivamente. Entonces

f(1, 2) = f(e1) + 2f(e2) = u1 + u2 + 2u3

f(2, 3) = 2f(e1) + 3f(e2) = 2u1 + 10u2 + u3

De aquí se obtiene

f(e1) = (1, 17,−4) = u1 + 17u2 − 4u3f(e2) = (0,−8, 3) = −8u2 + 3u3

Por tanto la matriz asociada a f en las bases canónicas de R2 y R3 es la siguiente

A =

1 017 −8−4 3

Page 108: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

96 CAPÍTULO 3. MATRICES

Observemos el siguiente diagrama

IdR2 f IdR3R2 → R2 → R3 → R3B1 P B0 A B00 Q−1 B2

donde

P =

µ1 11 3

¶y

Q−1 =

1 1 00 1 01 0 2

−1 = 1 −1 0

0 1 0− 12 1

212

En esta misma unidad se expone un método para hallar la matriz inversa. Aquísuponemos que ya se conoce y simplemente damos el resultado. Por tanto

Q−1AP =

1 −1 00 1 0− 12 1

212

1 017 −8−4 3

µ 1 11 3

=

−8 89 −772 −32

3.9.1. Matrices equivalentes

Definición 46 Dadas dos matrices A,B ∈Mm×n(K), se dice que A y B sonequivalentes si existen dos matrices inversibles P ∈ Mn(K) y Q ∈ Mm(K)que verifican la siguiente relación

B = QAP

Observación 49 Por el teorema 13, es inmediato observar que dos matrices deMm×n(K) son equivalentes si y sólo si están asociadas a la misma aplicaciónlineal de E en F, con dimE = n y dimF = m.

Teorema 59 La relación binaria entre matrices de Mm×n(K) según la cualA,B ∈Mm×n(K) están relacionadas si y sólo si A,B son equivalentes, es unarelación de equivalencia sobreMm×n(K).Demostración: En efecto, la relación es reflexiva ya que para todo A ∈Mm×n(K)se cumple

A = ImAIn

La relación es simétrica ya que para todo A,B ∈Mm×n(K), de

B = QAP

Page 109: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.9. CAMBIOS DE BASE EN UNA APLICACIÓN LINEAL 97

se deduceQ−1BP−1 = A

La relación es transitiva ya que para todo A,B,C ∈Mm×n(K), de

B = QAP

yC = RBS

entoncesC = R(QAP )S = (RQ)A(PS)

siendo RQ ∈Mm(K) y PS ∈Mn(K), matrices inversibles.

3.9.2. Matrices semejantes

Definición 47 Dadas dos matrices cuadradas A,B ∈Mn(K), se dice que A yB son semejantes si existe una matriz inversible P ∈Mn(K) tal que

B = P−1AP

Observación 50 Del corolario 1 se deduce que dos matrices cuadradas de ordenn sobre K son semejantes si y sólo si están asociadas al mismo endomorfismode un espacio vectorial de dimensión n sobre K. Por este motivo, el objetivo enlas unidades de diagonalización y forma canónica de Jordan será el de encontraruna base respecto de la cual la matriz asociada a un endomorfismo sea la más”simple” posible.

Teorema 60 La relación binaria entre matrices deMn(K) según la cual A,B ∈Mn(K) están relacionadas si y sólo si A,B son semejantes, es una relacion deequivalencia sobreMn(K).Demostración: En efecto, la relación es reflexiva ya que para todo A ∈Mn(K)se cumple

A = (In)−1AIn

La relación es simétrica ya que para todo A,B ∈Mn(K), de

B = P−1AP

se deduce ¡P−1

¢−1BP−1 = A

La relación es transitiva ya que para todo A,B,C ∈Mn(K), de

B = P−1AP

yC = Q−1BQ

entoncesC = Q−1(P−1AP )Q = (PQ)−1A(PQ)

Page 110: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

98 CAPÍTULO 3. MATRICES

3.10. Rango de una matriz

Definición 48 Dada una matriz A de Mm×n(K) se llama rango de A y sedesigna por rang A, el rango del sistema de Km formado por los vectores colum-na de A.

Teorema 61 Si A es la matriz asociada a una aplicación lineal f de E en F,entonces los cuatro números siguientes son iguales:

1. rango del sistema de Km formado por los vectores columna de A

2. rango del sistema de Kn formado por los vectores fila de A

3. dim Im f

4. dim Im f t, donde f t representa la aplicación traspuesta de f

Demostración: Sabemos que el rang A es el número máximo de vectores colum-na de A linealmente independientes. Supongamos que dimE = n y (ui : i =1, ..., n) una base de E, y dimF = m, si A es la matriz asociada a la aplicaciónlineal f , entonces los vectores columna de A representan los n vectores f(ui) deF y, como que Im f = hf(u1), ..., f(un)i, se tiene

rang A = dim Im f

y rang A ≤ inf{n,m}, ya que Im f ⊂ F. Por otra parte, la aplicación lineal f t,traspuesta de f , tiene asociada la matriz At en las bases duales de las consid-eradas en E y F. Entonces, el mismo razonamiento anterior hace que

rang At = dim Im f t

Obsérvese que los vectores columna de At son los vectores fila de A. Ahora bien,sabemos que

dim Im f = dim Im f t

Por tanto se obtiene lo que queríamos demostrar y además se cumple que

rang A ≤ inf{n,m}

Definición 49 Se llama matriz canónica de rango r de Mm×n(K) a lamatriz siguiente

Page 111: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.10. RANGO DE UNA MATRIZ 99

Teorema 62 Todas las matrices de Mm×n(K) de rango r son equivalentes ala matriz canónica de rango r.Demostración: Sea A una matriz deMm×n(K) asociada a una aplicación lin-eal f de un espacio vectorial E de dimensión n sobre K en otro F de dimensiónm sobre K. Si dim Im f = r, entonces sabemos que dimker f = n − r. Esco-jamos la base (u1, ...,un) de E de manera que (u1, ...,ur) sea una base de unsubespacio suplementario de ker f y (ur+1, ...,un) una base del ker f . Entonces(f(u1), ..., f(ur)) es una base de Im f . Ampliemos esta base hasta obtener unabase de F (f(u1), ..., f(ur)),vr+1, ...,vm). Entonces la matriz asociada a f tomala forma considerada en dichas bases.

Corolario 16 Para que dos matrices de Mm×n(K) sean equivalentes es nece-sario y suficiente que sean del mismo rango.Demostración: En efecto, si son equivalentes, la dos matrices representan lamisma aplicación lineal f respecto a bases diferentes, son pues del mismo rango,el rango de f . Si tienen el mismo rango r, son equivalentes a la matriz canónicade rango r deMm×n(K) y, en consecuencia, son equivalentes entre sí.

Corolario 17 Para que una matriz cuadrada A de orden n sobre K sea in-versible es necesario y suficiente que sea de rango n.Demostración: En efecto, A representa un endomorfismo f de un espaciovectorial E de dimensión n sobre K. Si dim Im f = rang A = n = dimE,entonces sabemos que f es un automorfismo y, por el teorema 8, A es inversible.Recíprocamente, si A es inversible, f es un automorfismo y, en consecuencia,rang A = dim Im f = n.

Ejemplo 74 Sea f : R3 → R3 un endomorfismo de R3 y B = (e1, e2, e3) unabase de R3. Se define f por

f(e1 − e2) = 0f(e1 + e2 + e3) = 4e2 + 5e3f(e2 + e3) = 3e2 + 3e3

Page 112: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

100 CAPÍTULO 3. MATRICES

Hallar la matriz asociada a f en esta base. Calcular su rango y deducir si es ono inversible.Solución: Puesto que f es lineal, se sigue que

f(e1)− f(e2) = 0f(e1) + f(e2) + f(e3) = 4e2 + 5e3f(e2) + f(e3) = 3e2 + 3e3

De estas relaciones se obtienen las siguientes

f(e1) = f(e2) = e2 + 2e3

f(e3) = 2e2 + e3

Por tanto, la matriz asociada a f en esta base es la matriz siguiente

A =

0 0 01 1 22 2 1

Sabemos que rang A = dim Im f = dim hf(e1), f(e2), f(e3)i. Por tanto, debe-mos calcular el rango del sistema de R3 formado por las imágenes de los vectoresde la base, que son los vectores columna de la matriz A. Calcularemos este rangopor transformaciones elementales

f(e1) f(e2) f(e3)0 0 01 1 22 2 1

∼f(e1) f(e2)− f(e1) f(e3)− 2f(e1)0 0 01 0 02 0 −3

∼f(e1) f(e3)− 2f(e1) f(e2)− f(e1)0 0 01 0 02 −3 0

Por tanto, rang A = dim Im f = 2. La matriz A no tiene inversa ya que surango no es 3.

3.11. Matrices elementales

En la unidad de los espacios vectoriales se vió como las transformacioneselementales dejan invariante el rango de un sistema de vectores. Es naturalestudiar la aplicación de estas transformaciones para las matrices.

Definición 50 Una matriz elemental es una matriz cuadrada que resultade aplicar una transformación elemental a las filas o columnas de la matrizidentidad.

Page 113: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.11. MATRICES ELEMENTALES 101

Tenemos así seis tipos de matrices elementales: 3 para filas y 3 para columnas.Las matrices siguientes son ejemplos de matrices elementales

1 0 0 00 0 0 10 0 1 00 1 0 0

se han permutado las columnas 2 y 4 de I4

1 0 00 1 00 0 −2

se ha multiplicado por -2 la columna 3 de I3

1 3 0 00 1 0 00 0 1 00 0 0 1

se ha sumado la columna 1, multiplicada por 3, a la columna 2 de I4.

Teorema 63 Si A es una matriz deMm×n(K), cada transformación elementalefectuada sobre las filas de A puede expresarse como EA, donde E es la matrizelemental de orden m correspondiente a la transformación efectuada. Asimismo,cada transformación elemental efectuada sobre las columnas de A puede expre-sarse como AE, donde E es la matriz elemental de orden n correspondiente ala transformación efectuada.

Demostración: Esto puede probarse por cálculo directo del producto AE y EAen cada caso. Consideremos, por ejemplo, la transformación elemental de sumara la columna i la columna j multiplicada por un número k.

Page 114: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

102 CAPÍTULO 3. MATRICES

y así con el resto de transformaciones.

Corolario 18 Una matriz elemental E es una matriz inversible.Demostración: Cualquier matriz elemental E resulta de aplicar una ciertatransformación elemental a las columnas (o filas) de la matriz identidad. Latransformación inversa es también elemental y, en consecuencia, correspondea alguna matriz elemental E∗, y transforma E en I. Por el teorema 18, latransformación inversa efectuada sobre las columnas de E puede expresarsecomo EE∗ y, por tanto, EE∗ = I. Asimismo, la transformación E efectuadasobre las columnas de E∗ se expresa como E∗E y, por tanto, E∗E = I.

Definición 51 Decimos que dos matrices A,B deMm×n(K) son equivalentespor filas si puede obtenerse B a partir de A por una sucesión finita de trans-formaciones elementales aplicadas a sus filas.

Corolario 19 Si dos matrices A,B de Mm×n(K) son equivalentes por filas,entonces existe una matriz inversible Q deMm(K) tal que B = QA.Demostración: Si A y B son equivalentes por filas, B se obtiene por transfor-maciones elementales de las filas de A. Por el teorema 18, se sigue que

B = EsEs−1 · · ·E1Asiendo Ei una matriz elemental, i = 1, ..., s. Tomando Q = EsEs−1 · · ·E1, y sa-biendo que las matrices elementales son inversibles, se obtiene lo que queríamosdemostrar.

Definición 52 Diremos que una matriz A deMm×n(K) es reducida por filassi

Page 115: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.11. MATRICES ELEMENTALES 103

1. Cada fila no nula de A tiene un 1 como primer elemento

2. Cada columna que contenga un 1 y éste sea el primer elemento de su fila,tiene todos sus otros elementos nulos

Ejemplo 75 La siguiente matriz0 0 1 3 0 51 0 0 2 0 30 1 0 2 0 30 0 0 0 1 30 0 0 0 0 0

es una matriz 5× 6 reducida por filas. En cambio, la matriz

1 0 2 3 0 40 1 0 1 1 10 0 0 0 1 00 0 0 0 0 2

no es reducida por filas ya que la cuarta fila no tiene como primer elemento 1y también porque la cuarta fila tiene como primer elemento el 1 de la quintacolumna y no todos sus elementos son nulos.

Definición 53 Diremos que una matriz A de Mm×n(K) es escalonada re-ducida por filas si

1. A es una matriz reducida por filas

2. Las filas nulas de A se sitúan debajo de todas las filas no nulas

3. El primer 1 de cada fila se sitúa (de arriba a abajo) más a la derecha queel primer 1 de la fila inmediatamente superior.

Ejemplo 76 La matriz siguiente1 0 0 2 0 30 1 0 2 0 30 0 1 3 0 50 0 0 0 1 30 0 0 0 0 0

es una matriz 5 × 6 escalonada reducida por filas. Esta matriz se ha obtenidodirectamente de la matriz reducida del ejemplo 20 por permutaciones adecuadasde sus filas.

Teorema 64 Cualquier matriz A de Mm×n(K) es equivalente por filas a unamatriz escalonada reducida por filas.

Page 116: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

104 CAPÍTULO 3. MATRICES

Demostración: Puesto que la demostración es por inducción y sigue un métodoconstructivo basado en la aplicación sucesiva de las transformaciones elemen-tales a las filas de la matriz, en lugar de hacer una demostración general, pro-ponemos hacer una ilustración del método mediante un ejemplo. Consideremosla matriz

A =

2 −1 3 20 2 1 44 −2 3 92 −3 4 5

Observemos que la primera fila no nula tiene como primer elemento un 2, coloca-do en la primera columna. Multipliquemos la primera fila por 1/2. Así tenemos

1 −12 32 1

0 2 1 44 −2 3 92 −3 4 5

Ahora sumamos la primera fila multiplicada por −4 y −2 a la tercera y cuartafilas respectivamente. Así tenemos

1 −12 32 1

0 2 1 40 0 −3 50 −2 1 3

Observemos que así hemos reducido cada uno de los otros elementos de la colum-na 1 a cero. Repitamos el mismo procedimiento con la segunda fila. Observamosque el primer elemento no nulo es un 2, colocado en la segunda columna. Mul-tipliquemos la segunda fila por 1/2. Así tenemos

1 −12 32 1

0 1 12 2

0 0 −3 50 −2 1 3

Ahora sumamos la segunda fila multiplicada por 4 a la cuarta, y la segunda filamultiplicada por 1/2 a la primera; así tenemos

1 0 74 2

0 1 12 2

0 0 −3 50 0 2 7

De nuevo hemos reducido cada uno de los restantes elementos de la segundacolumna a cero. Repitamos el proceso con la tercera fila. Multiplicamos la tercerafila por −1/3, así tenemos

1 0 74 2

0 1 12 2

0 0 1 −530 0 2 7

Page 117: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.11. MATRICES ELEMENTALES 105

Ahora sumamos la tercera fila multiplicada por −2 a la cuarta, la tercera filamultiplicada por −1/2 a la segunda, y la tercera multiplicada por −7/4 a laprimera; así tenemos

1 0 0 5912

0 1 0 176

0 0 1 −530 0 0 31

3

Finalmente, multiplicamos la cuarta fila por 3/31 y así tenemos

1 0 0 5912

0 1 0 176

0 0 1 −530 0 0 1

ahora, sumamos la cuarta fila multiplicada por los números correspondientes acada una de las otras filas y se obtiene la matriz escalonada reducida por filasequivalente a la matriz dada

1 0 0 00 1 0 00 0 1 00 0 0 1

Ejemplo 77 Hallar la matriz escalonada reducida por filas de la siguiente ma-triz

A =

1 2 32 3 43 4 54 5 6

escribiendo en cada caso la matriz elemental correspondiente.Solución: Para ello seguimos los pasos siguientes1 0 0 0 1 2 30 1 0 0 2 3 40 0 1 0 3 4 50 0 0 1 4 5 6

F02 = F2 − 2F1

1 0 0 0 1 2 3−2 1 0 0 0 −1 −20 0 1 0 3 4 50 0 0 1 4 5 6

1 0 0 0 1 2 30 1 0 0 0 −1 −20 0 1 0 3 4 50 0 0 1 4 5 6

F03 = F3 − 3F1

1 0 0 0 1 2 30 1 0 0 0 −1 −2−3 0 1 0 0 −2 −40 0 0 1 4 5 6

1 0 0 0 1 2 30 1 0 0 0 −1 −20 0 1 0 0 −2 −40 0 0 1 4 5 6

F04 = F4 − 4F1

1 0 0 0 1 2 30 1 0 0 0 −1 −20 0 1 0 0 −2 −4−4 0 0 1 0 −3 −6

Page 118: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

106 CAPÍTULO 3. MATRICES1 0 0 0 1 2 30 1 0 0 0 −1 −20 0 1 0 0 −2 −40 0 0 1 0 −3 −6

F02 = −F2

1 0 0 0 1 2 30 −1 0 0 0 1 20 0 1 0 0 −2 −40 0 0 1 0 −3 −6

1 0 0 0 1 2 30 1 0 0 0 −1 −20 0 1 0 0 −2 −40 0 0 1 0 −3 −6

F01 = F1 − 2F2

1 −2 0 0 1 0 −10 1 0 0 0 1 20 0 1 0 0 −2 −40 0 0 1 0 −3 −6

1 0 0 0 1 0 −10 1 0 0 0 −1 −20 0 1 0 0 −2 −40 0 0 1 0 −3 −6

F03 = F3 + 2F2

1 0 0 0 1 0 −10 1 0 0 0 1 20 2 1 0 0 0 00 0 0 1 0 −3 −6

1 0 0 0 1 0 −10 1 0 0 0 −1 −20 0 1 0 0 0 −40 0 0 1 0 −3 −6

F04 = F4 + 3F2

1 0 0 0 1 0 −10 1 0 0 0 1 20 0 1 0 0 0 00 3 0 1 0 0 0

Por tanto, la matriz escalonada reducida por filas es la matriz

B =

1 0 −10 1 20 0 00 0 0

que se obtiene por

B = E7E6 · · ·E1Adonde, por ejemplo,

E5 =

1 −2 0 00 1 0 00 0 1 00 0 0 1

Teorema 65 Si A ∈Mn(K) es una matriz inversible, entonces se reduce a laidentidad por una sucesión de transformaciones elementales entre sus filas, lamisma sucesión de transformaciones aplicadas a la matriz identidad I da comoresultado la matriz inversa de A.Demostración: Si A es una matriz inversible de Mn(K), A es equivalentepor filas a una matriz escalonada reducida E que también tiene rango n. Estamatriz E tiene por lo tanto n filas no nulas y, en consecuencia, tiene unos comoprimeros elementos en n diferentes columnas y ningún otro elemento no nuloen esas columnas. Por tanto, E es precisamente la matriz identidad. Si ahoraaplicamos el teorema 18, se sigue que para matrices elementales apropiadas Ei

se tieneEsEs−1 · · ·E1A = I

Page 119: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.11. MATRICES ELEMENTALES 107

Multiplicando a la derecha por A−1 los dos miembros de esta igualdad, se tiene

EsEs−1 · · ·E1I = A−1

La matriz a la izquierda es el resultado de aplicar a la identidad I la sucesiónde matrices elementales E1, ..., Es.

Observación 51 Este teorema proporciona un método para determinar la in-versa de una matriz inversible.

Corolario 20 Una matriz A de Mn(K) es inversible si y sólo si puede expre-sarse como un producto de matrices elementales.Demostración: Por el teorema 20, si A es inversible, entonces A puede expre-sarse como un producto de matrices elementales. Recíprocamente, si

A = E1E2 · · ·Es

entonces, según el corolario 4,

A−1 = (E1E2 · · ·Es)−1= E−1s · · ·E−12 E−11

Por tanto, A es una matriz inversible.

Corolario 21 Dos matrices A,B de Mm×n(K) son equivalentes por filas si ysólo si existe una matriz inversible Q deMm(K) tal que B = QA.Demostración: Si A,B son equivalentes por filas, entonces por el corolario 5existe una matriz inversible Q deMm(K) tal que B = QA. Recíprocamente, siB = QA, con Q una matriz inversible, entonces por el corolario 6

Q = EsEs−1 · · ·E1

es decir,B = EsEs−1 · · ·E1A

Por tanto, según el teorema 18, B es equivalente por filas a A.

Definición 54 Decimos que dos matrices A,B de Mm×n(K) son equivalentessi puede obtenerse una a partir de la otra por una sucesión de transformacioneselementales

B = ErEr−1 · · ·E1AE01 · · ·E

0s−1E

0s

donde E1, ..., Er son matrices elementales que representan las transformacionesaplicadas a las filas de A y E

01, ..., E

0s las transformaciones aplicadas a las colum-

nas de A, para obtener la matriz B.

Observación 52 Hacemos las siguientes observaciones importantes:

Page 120: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

108 CAPÍTULO 3. MATRICES

1. Al reemplazar A por su traspuesta At, las transformaciones elementalesentre filas se cambian por transformaciones elementales entre columnas yviceversa. En particular, A se podrá transformar en B mediante una se-rie de transformaciones elementales entre columnas, cuando la traspuestaAt se pueda transformar en Bt por una sucesión de transformaciones el-ementales entre filas, y sólo en este caso. Aplicando, el corolario 7, estosignifica que Bt = QAt, o sea, B = (Bt)t = (QAt)t = AQt = AP , dondeP = Qt es una matriz inversible. Recíprocamente, si B = AP , siendo Puna matriz inversible, expresa que B es equivalente por columnas a A.

2. Esta definición coincide con la definición 14, pero ahora ha sido expre-sada en términos de matrices elementales. En efecto, si tomamos P =E

01 · · ·E

0s−1E

0s y Q = ErEr−1 · · ·E1, se tiene B = QAP , con P,Q matri-

ces inversibles. Las matrices P y Q son inversibles por el corolario 6.

Ejemplo 78 Obtener la matriz canónica de rango r de la matriz

A =

1 2 32 3 43 4 54 5 6

indicando las matrices inversibles P y Q.Solución: En el ejemplo 22 hemos visto que A es equivalente a la siguiente

matriz escalonada reducida por filas1 0 −10 1 20 0 00 0 0

Aplicaremos ahora transformaciones elementales a sus columnas, o de formaequivalente, aplicaremos transformaciones elementales a las filas de su matriztraspuesta 1 0 0 0 1 0 0

0 1 0 0 0 1 0−1 2 0 0 0 0 1

F 03 = F3 + F1

1 0 0 0 1 0 00 1 0 0 0 1 00 2 0 0 1 0 1

1 0 0 0 1 0 00 1 0 0 0 1 00 2 0 0 0 0 1

F03 = F3 − 2F2

1 0 0 0 1 0 00 1 0 0 0 1 00 0 0 0 0 −2 1

Trasponiendo de nuevo la matriz resultante, se sigue que la matriz canónica derango r de A es la siguiente matriz

1 0 00 1 00 0 00 0 0

Page 121: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

3.11. MATRICES ELEMENTALES 109

Obsérvese que esta matriz se ha obtenido por transformaciones elementales entrecolumnas a partir de la matriz

1 0 −10 1 20 0 00 0 0

En efecto, para comprobarlo basta trasponer las matrices elementales aplicadasanteriormente

1 0 −10 1 20 0 00 0 0

1 0 10 1 00 0 1

1 0 00 1 −20 0 1

=

1 0 00 1 00 0 00 0 0

Entonces

P =

1 0 10 1 00 0 1

1 0 00 1 −20 0 1

=

1 0 10 1 −20 0 1

y, según el ejemplo 22,

Q = E7E6 · · ·E1 =

−3 2 0 02 −1 0 01 −2 1 02 −3 0 1

Obsérvese que se cumple lo siguiente

−3 2 0 02 −1 0 01 −2 1 02 −3 0 1

1 2 32 3 43 4 54 5 6

1 0 10 1 −20 0 1

=

1 0 00 1 00 0 00 0 0

Observación 53 En la práctica si A,B ∈Mm×n(K) son equivalentes y B =QAP , consideraremos el esquema inicial (Im|A|In) y mediante transformacioneselementales obtendremos el esquema (Q|B|P ). Todas las transformaciones detipo fila realizadas en A para llegar a B se reflejan en Im y las de tipo columnaen In. Una vez conseguida la matriz B, las matrices P y Q serán las obtenidasa partir de In y Im, respectivamente.Asimismo, si A es una matriz inversible, su forma canónica es In. Por tanto,

In = QAP . Si se realizan sólo transformaciones de tipo fila, consideraremos elesquema inicial (In |A) y mediante transformaciones elementales obtendremosel esquema (Q | In), y se cumple Q = A−1. Análogamente, si se realizan sólotransformaciones de tipo columna, consideraremos el esquema inicial (A | In) ymediante transformaciones elementales obtendremos el esquema (In |P ), y secumple P = A−1.

Page 122: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

110 CAPÍTULO 3. MATRICES

Ejemplo 79 Calcular la inversa de la matriz

A =

1 −2 −1−3 7 42 2 1

utilizando solamente transformaciones elementales de tipo fila.Solución: 1 0 0 1 −2 −1

0 1 0 −3 7 40 0 1 2 2 1

F02 = F2 + 3F1

F03 = F3 − 2F1 →

1 0 0 1 −2 −13 1 0 0 1 1−2 0 1 0 6 3

F

01 = F1 + 2F2

F03 = F3 − 6F2 →

7 2 0 1 0 13 1 0 0 1 1

−20 −6 1 0 0 −3

F

03 = −13F3 →

7 2 0 1 0 13 1 0 0 1 1

20/3 2 −1/3 0 0 1

F

02 = F2 − F3

F01 = F1 − F3

→ 1/3 0 1/3 1 0 0−11/3 −1 1/3 0 1 020/3 2 −1/3 0 0 1

Luego

A−1 =

1/3 0 1/3−11/3 −1 1/320/3 2 −1/3

Page 123: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 4

Determinantes

4.1. Determinante de n vectoresConsideremos el conjunto de las matrices cuadradas de orden n con coefi-

cientes en un cuerpo conmutativo K. Queremos asociar a cada matriz un elemen-to de K, su ”determinante”, de forma que se cumplan las siguientes propiedades:

1. si multiplicamos por a ∈ K los elementos de una columna, el determinantequeda multiplicado por a

2. si una columna es suma de dos, el determinante es suma de los determi-nantes calculados con cada una de las columnas-sumandos

3. si dos columnas son iguales, el determinante es cero

Estas tres condiciones son, de hecho, suficientemente restrictivas como parano permitir mucho margen al querer definir lo qué será el determinante de unamatriz. Vamos a verlo.Observemos, en primer lugar, que las condiciones impuestas se refieren a las

columnas; por ello, conviene considerar cada matriz cuadrada de orden n como

un elemento de

nz }| {Kn × · · · ×Kn, interpretando cada columna como una n−tupla

de Kn. Así pues, un determinante ha de ser una aplicación

det :

nz }| {Kn × · · · ×Kn −→ K(a1, ..., an) 7−→ det(a1, ..., an)

que cumpla:

1. det(a1, ..., a ai, ..., an) = adet(a1, ..., an), para todo a ∈ K y para todoi = 1, ..., n

2. det(a1, ..., ai+a0i, ..., an) = det(a1, ..., ai, ..., an)+det(a1, ..., a

0i, ..., an), para

todo i = 1, ..., n

111

Page 124: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

112 CAPÍTULO 4. DETERMINANTES

3. det(a1, ..., an) = 0 si dos columnas cualesquiera son iguales

Esto nos conduce a la primera definición que vamos a dar para una situaciónalgo más general.

Definición 55 Sea E un espacio vectorial de dimensión n sobre un cuerpo con-mutativo K. Se llama n−forma lineal de E en K a toda aplicación D : En −→K que cumple

1. D(v1, ..., avi, ...,vn) = a D(v1, ...,vi, ...,vn)

2. D(v1, ...,vi + v0i, ..., vn) = D(v1, ...,vi, ...,vn) +D(v1, ...,v

0i, ...,vn), para

todo i = 1, ..., n

Las n−formas lineales para n ≥ 2 se llaman también formas multilin-eales; si n = 2, se dice que D es una forma bilineal.

Observación 54 Las condiciones (1) y (2) se resumen diciendo que f es linealen cada factor. El nombre de ”forma” se reserva para aplicaciones lineales omultilineales en K.

Definición 56 Sea E un espacio vectorial de dimensión n sobre un cuerpo con-mutativo K. Una forma multilineal D de E en K se llama simétrica si para todoelemento (v1, ...,vi, ...,vn) de En y para toda permutación σ ∈ Sn se cumple

D(vσ(1), ...,vσ(i), ...,vσ(n)) = D(v1, ...,vi, ...,vn)

Definición 57 Sea E un espacio vectorial de dimensión n sobre un cuerpo con-mutativo K. Una forma multilineal D de E en K se llama antisimétrica sipara todo elemento (v1, ...,vi, ...,vn) de En y para toda permutación σ ∈ Sn secumple

D(vσ(1), ...,vσ(i), ...,vσ(n)) = (σ)D(v1, ...,vi, ...,vn)

Teorema 66 Sea E un espacio vectorial de dimensión n sobre un cuerpo con-mutativo K. Una forma multilineal D de E en K es antisimétrica si y sólo sipara todo (v1, ...,vi, ...,vn) de En y para toda trasposición σ ∈ Sn se cumple

D(vσ(1), ...,vσ(i), ...,vσ(n)) = −D(v1, ...,vi, ...,vn)

Demostración: Si σ ∈ Sn es una trasposición, entonces (σ) = −1. Luego, siD es antisimétrica se tiene

D(vσ(1), ...,vσ(i), ...,vσ(n)) = −D(v1, ...,vi, ...,vn)

Recíprocamente, si σ ∈ Sn, σ es descomponible en producto de trasposiciones:σ = σr ◦ · · · ◦ σ1. Entonces

D(vσ(1), ...,vσ(n)) = D(v(σr ◦···◦σ1)(1), ...,v(σr ◦···◦σ1)(n))= −D(v(σr ◦···◦σ2)(1), ...,v(σr ◦···◦σ2)(n))

...

= (−1)rD(v1, ...,vn)= (σ)D(v1, ...,vn)

Page 125: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.1. DETERMINANTE DE N VECTORES 113

Definición 58 Sea E un espacio vectorial de dimensión n sobre un cuerpo con-mutativo K. Una forma multilineal D de E en K se llama alternada si cumple

D(v1, ...,vn) = 0

si dos de los vectores son iguales.

4.1.1. Propiedades de las formas multilineales alternadas

Sea E un espacio vectorial de dimensión n sobre un cuerpo conmutativo K.

Teorema 67 Si D : En −→ K es una n−forma lineal alternada, entonces

D(v1, ...,vi, ...,vj , ...,vn) = −D(v1, ...,vj , ...,vi, ...,vn)

Demostración: Tenemos

0 = D(v1, ...,vi + vj , ...,vi + vj , ...,vn)

=D(v1, ...,vi, ...,vi, ...,vn) +D(v1, ...,vi, ...,vj , ...,vn)+ D(v1, ...,vj , ...,vi, ...,vn) +D(v1, ...,vj , ...,vj , ...,vn)

= D(v1, ...,vi, ...,vj , ...,vn) +D(v1, ...,vj , ...,vi, ...,vn)

de donde,

D(v1, ...,vi, ...,vj , ...,vn) = −D(v1, ...,vj , ...,vi, ...,vn)

Observación 55 Si vi = vj, entonces según el teorema anterior tenemos

2D(v1, ...,vi, ...,vi, ...,vn) = 0

Siempre que en K sea 2 6= 0, esto equivale a

D(v1, ...,vi, ...,vi, ...,vn) = 0

para 1 ≤ i ≤ n. Por tanto, esta propiedad es equivalente a la condición que definea las formas multilineales alternadas si y sólo si K no es de característica 2.

Teorema 68 Si D : En −→ K es una n−forma lineal alternada, entonces

D(vσ(1), ...,vσ(n)) = (σ) D(v1, ...,vn)

siendo (σ) la signatura de la permutación σ ∈ Sn.Demostración: Si σ es una trasposición, entonces (σ) = −1 y la propiedadse cumple por el teorema 1. En general, podemos descomponer σ en producto detrasposiciones y aplicar el teorema 1 reiteradamente.

Page 126: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

114 CAPÍTULO 4. DETERMINANTES

Observación 56 Si Sn es el grupo de permutaciones del conjunto {1, ..., n},se llama trasposición a toda permutación σ ∈ Sn tal que σ(i) = j, σ(j) = iy σ(k) = k, con i 6= j, i 6= k y j 6= k. Se demuestra que toda permutaciónse puede descomponer en producto de trasposiciones. Si I(σ) indica el númerode inversiones presentadas dos a dos por los elementos {1, ..., n}, se define lasignatura de σ, denotándose por (σ), como el número siguiente

(σ) = (−1)I(σ)

Si (σ) = 1, se dice que σ es una permutación par, y si (σ) = −1, σ se llamapermutación impar. Se demuestra que toda trasposición es impar y que paratodo par de permutaciones σ, τ ∈ Sn se cumple

(σ ◦ τ) = (σ) (τ)

Por ejemplo, si σ ∈ S6 y por definición

σ =¡3 4 5 6 1 2

¢Entonces

σ =¡3 5 1

¢ ¡4 6 2

¢=

¡5 1

¢ ¡3 1

¢ ¡6 2

¢ ¡4 2

¢y (σ) = (−1)4 = 1, es decir, σ es una permutación par.Teorema 69 Si D : En −→ K es una n−forma lineal alternada y vi = 0,entonces

D (v1, ...,vi, ...,vn) = 0

Demostración: En efecto, como vi = 0vi, tenemos por (2)

D(v1, ...,vi, ...,vn) = D(v1, ..., 0vi, ...,vn)

= 0D(v1, ...,vi, ...,vn)

= 0

Teorema 70 Si D : En −→ K es una n−forma lineal alternada yvj =

Xk 6=j

akvk

siendo ak ∈ K, entoncesD(v1, ...,vj , ...,vn) = 0

Demostración: En efecto, según (1) y (2) se tiene

D(v1, ...,vj , ...,vn) =Xk 6=j

akD(v1, ...,vk, ...,vn)

Observemos que en cada sumando vk ocupa las posiciones j y k, y, por tanto,según (3), el sumando se anula.

Page 127: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.1. DETERMINANTE DE N VECTORES 115

Teorema 71 Si D : En −→ K es una n−forma lineal alternada, entonces

D

v1, ...,vi +Xk 6=i

akvk, ...,vn

= D(v1, ...,vi, ...,vn)

Demostración: Es consecuencia inmediata del teorema 4.

Teorema 72 Si e1, ..., en es una base de E, una n−forma lineal alternada Dde E en K queda determinada por el valor D(e1, ..., en) ∈ K. Recíprocamente,dado k ∈ K existe una y una sola n−forma lineal alternada D de E en K talque D(e1, ..., en) = k.Demostración: En efecto, calculemos D(v1, ...,vn). Si

vi =nX

h=1

ahieh

entonces

D(v1, ...,vn) = D

ÃnX

h=1

ah1eh, ...,nX

h=1

ahneh

!

=nX

h1,...,hn=1

D (ah11eh1 , ..., ahnnehn)

=nX

h1,...,hn=1

ah11 · · · ahnnD(eh1 , ..., ehn)

En D(eh1 , ..., ehn), los subíndices h1, ..., hn pueden tomar valores arbitrarios en{1, ..., n}, pero el sumando se anulará siempre que dos de los subíndices seaniguales. Quedarán solamente, pues, los sumandos en que h1, ..., hn sean precisa-mente 1, ..., n permutados. Designemos por h la permutación

h =¡h1 · · · hn

¢entonces por teorema 1 tenemos

D(v1, ...,vn) =P

h∈sn ah11 · · · ahnnD(eh1 , ..., ehn)=

Ph∈sn ah11 · · · ahnn (h)D(e1, ..., en)

luego D(v1, ...,vn) queda determinada por D(e1, ..., en).Recíprocamente, la aplicación D definida por

D(v1, ...,vn) =Xh∈sn

(h) ah11 · · · ahnn k

es una n−forma lineal alternada de E en K tal que D(e1, ..., en) = k. En efecto,

D(v1, ..., avi, ...,vn) =Xh∈sn

(h) ah11 · · · aahii · · · ahnn k

= aXh∈sn

(h) ah11 · · · ahii · · · ahnn k

= aD(v1, ...,vi, ...,vn)

Page 128: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

116 CAPÍTULO 4. DETERMINANTES

lo que demuestra la condición (1). Comprobemos (2)

D(v1, ...,vi +wi, ...,vn) =Xh∈sn

(h) ah11 · · · (ahii + bhii) · · · ahnn k

=Xh∈sn

(h) ah11 · · · ahii · · · ahnn k +Xh∈sn

(h) ah11 · · · bhii · · · ahnn k

= D(v1, ...,vi, ...,vn) +D(v1, ...,wi, ...,vn)

Falta, por último, demostrar (3). Supongamos que vi = vj, esto quiere decirque sus coordenadas son iguales, aki = akj para todo k ∈ {1, ..., n}. Entonces,tenemos

D(v1, ...,vi, ...,vj , ...,vn) =Xh∈sn

(h) ah11 · · · ahii · · · ahjj · · · ahnn k

Consideremos un sumando cualquiera

(h) ah11 · · · ahii · · · ahjj · · · ahnny comparémoslo con el sumando correspondiente a t = h ◦ (i, j); sabiendo que(i, j) = −1 y que (σ ◦ τ) = (σ) (τ), tenemos

(t) at11 · · · atii · · · atjj · · · atnn = − (h) ah11 · · · ahji · · · ahij · · · ahnn= − (h) ah11 · · · ahjj · · · ahii · · · anhn

Por tanto, estos dos sumandos suman 0 y podemos eliminarlos del sumatorio.Este proceso puede repetirse tantas veces como sea necesario; al final quedaráX

h∈sn(h) ah11 · · · ahii · · · ahjj · · · ahnn k = 0

de dondeD(v1, ...,vi, ...,vj , ...,vn) = 0

Corolario 22 Si e1, ..., en es una base de E y D es una n−forma lineal alterna-da tal que D(e1, ..., en) = 0, entonces D(v1, ...,vn) = 0 para cualquier n−tuplade vectores de E.Demostración: Es inmediato a partir de que

D(v1, ...,vn) =Xh∈sn

(h) ah11 · · · ahnn k

con D(e1, ..., en) = k.

Page 129: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.1. DETERMINANTE DE N VECTORES 117

Corolario 23 Si D es una n−forma lineal alternada de E en K no nula yv1, ...,vn son vectores linealmente independientes de E, entonces D(v1, ...,vn) 6=0.Demostración: En efecto, si v1, ...,vn son linealmente independientes, v1, ...,vnforman una base de E. Si fuera D(v1, ...,vn) = 0 entonces por el corolario ante-rior sería D = 0, lo que no es posible por hipótesis. Por lo tanto, D(v1, ...,vn) 6=0.

Definición 59 Se llama determinante de los vectores v1, ...,vn respecto dela base e1, ..., en de E al siguiente elemento de KX

h∈sn(h) ah11 · · · ahnn k

y abreviadamente se escribe

det(ei)(v1, ...,vn) =

Xh∈sn

(h) ah11 · · · ahnn k =

¯¯ a11 · · · a1n...

. . ....

an1 · · · ann

¯¯

siendo

vi =nX

h=1

ahieh

Este elemento solamente depende de las coordenadas de los vectores v1, ...,vnen la base e1, ..., en, y por el teorema 6 cumple la condición de que, para todan−forma lineal alternada D,

D(v1, ...,vn) = det(ei)(v1, ...,vn) D(e1, ..., en)

Así pues, existen tantas n−formas lineales alternadas como elementos del cuerpoK.

Teorema 73 Consideremos el conjunto A (E,K) de las n−formas lineales al-ternadas de E en K y, en él, las operaciones dadas por

(D1 +D2)(v1, ...,vn) = D1(v1, ...,vn) +D2(v1, ...,vn)

(aD)(v1, ...,vn) = aD(v1, ...,vn) (a ∈ K)A (E,K), con estas operaciones, es un espacio vectorial sobre el cuerpo K.Demostración: Es muy fácil probar que si D1,D2 y D son de A (E,K), en-tonces D1 + D2 y aD también lo son. El resto de axiomas se comprueban sinninguna dificultad.

Teorema 74 Sea ahora e1, ..., en una base de E. La aplicación

A (E,K) −→ KD 7−→ D(e1, ..., en)

Page 130: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

118 CAPÍTULO 4. DETERMINANTES

es un isomorfismo de espacios vectoriales. Así pues, tenemos

A (E,K) ∼= K

y, en particular, A (E,K) tiene dimensión 1. La n−forma alternada correspon-diente al 1 de K es precisamente

det(ei) : En −→ K(v1, ...,vn) 7−→ det(ei)(v1, ...,vn)

Demostración: Es una simple comprobación que la aplicación es lineal y, porel teorema 6, es biyectiva. Los demás resultados son consecuencias inmediatasde la teoría de espacios vectoriales y de las aplicaciones lineales.

Corolario 24 Los vectores v1, ...,vn de E son linealmente independientes si ysólo si

det(ei)(v1, ...,vn) 6= 0

Demostración: Si los vectores v1, ...,vn de E son linealmente independientes,por el corolario 2, tenemos

det(ei)(v1, ...,vn) 6= 0

Recíprocamente, si fueran dependientes, según el teorema 4, se tendría

det(ei)(v1, ...,vn) = 0

lo que no es posible.

Teorema 75 Sean e1, ..., en y u1, ...,un dos bases de un espacio vectorial E.Entonces, se verifica que

det (ui)(v1, ...,vn) = det (ei)(v1, ...,vn) det (ui)(e1, ..., en)

Demostración: Para cualquier n−forma lineal alternada D tenemos

D(v1, ...,vn) = det (ei)(v1, ...,vn)D(e1, ..., en)

= det (ei)(v1, ...,vn) det (ui)(e1, ..., en)D(u1, ...,un)

y tambiénD(v1, ...,vn) = det (ui)(v1, ...,vn)D(u1, ...,un)

Podemos tomar D tal que D(u1, ...,un) 6= 0 y obtenemos la igualdad deseada.

Ejemplo 80 Supongamos que E es un espacio vectorial de dimensión 2 sobreK. Sea e1, e2 una base de E y v1,v2 ∈ E. Calcular det(ei)(v1,v2).

Page 131: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.1. DETERMINANTE DE N VECTORES 119

Solución: Sea D : E2 → K una forma bilineal alternada. Supongamos quev1 = (a11, a21) y v2 = (a12, a22) son sus coordenadas en la base e1, e2. Entonces

D(v1,v2) = D(a11e1 + a21e2, a12e1 + a22e2)

= D(a11e1, a12e1) +D(a11e1, a22e2) +D(a21e2, a12e1) +D(a21e2, a22e2)

= a11a12D(e1, e1) + a11a22D(e1, e2) + a21a12D(e2, e1) + a21a22D(e2, e2)

= a11a22D(e1, e2)− a21a12D(e1, e2)

= (a11a22 − a21a12)D(e1, e2)

Por tantodet(ei)(v1,v2) = a11a22 − a21a12

Ejemplo 81 Para dos bases cualesquiera e1, ..., en y u1, ...,un de E, probar quese verifica

det (ei)(u1, ...,un) det (ui)(e1, ..., en) = 1

Solución: En efecto, D(u1, ...,un) 6= 0 yD(u1, ...,un) = det

(ui)(u1, ...,un)D(u1, ...,un)

de dondedet(ui)(u1, ...,un) = 1

Por tanto,

det (ui)(u1, ...,un) = det (ei)(u1, ...,un) det (ui)(e1, ..., en) = 1

Ejemplo 82 Demostrar que toda forma multilineal alternada es antisimétrica.Recíprocamente, si K no es de característica 2, entonces toda forma multilinealantisimétrica es alternada.Solución: Supongamos que D es una forma multilineal alternada, entonces

0 = D(v1, ...,vi + vj , ...,vi + vj , ...,vn)

=D(v1, ...,vi, ...,vi, ...,vn) +D(v1, ...,vi, ...,vj , ...,vn)+ D(v1, ...,vj , ...,vi, ...,vn) +D(v1, ...,vj , ...,vj , ...,vn)

= D(v1, ...,vi, ...,vj , ...,vn) +D(v1, ...,vj , ...,vi, ...,vn)

Por tanto,

D(v1, ...,vj , ...,vi, ...,vn) = −D(v1, ...,vi, ...,vj , ...,vn)

y por el teorema 1??, D es antisimétrica. Recíprocamente, si D es antisimétrica,entonces

D(v1, ...,vj , ...,vi, ...,vn) = −D(v1, ...,vi, ...,vj , ...,vn)

Page 132: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

120 CAPÍTULO 4. DETERMINANTES

Luego si vi = vj, se sigue

2D(v1, ...,vi, ...,vj , ...,vn) = 0

y como K no es de característica 2, se concluye

D(v1, ...,vi, ...,vj , ...,vn) = 0

4.1.2. Propiedades de los determinantes

De las propiedades de las n−formas lineales alternadas y de la definición sededucen de forma inmediata las siguientes propiedades:

1. Si se multiplican todos los elementos de una columna por k, el determi-nante queda multiplicado por k.

2. Si los elementos aij de la columna j de un determinante son de la formaaij = bi+ ci, el determinante es igual a la suma de dos determinantes quetienen bi y ci respectivamente por columna j y las demás columnas igualesa las del primero.

3. Si un determinante tiene dos columnas iguales es nulo.

4. Si en un determinante se cambian entre sí dos columnas, el determinantecambia de signo.

5. Si un determinante tiene una columna de ceros es nulo.

6. Condición necesaria y suficiente para que un determinante sea nulo es quelas columnas sean linealmente independientes.

7. Si a una columna de un determinante se le suma una combinación linealde las restantes columnas el determinante no varía.

8. Si tomamos E = Rn y K = R, por definición tenemos¯¯ a11 · · · a1n...

. . ....

an1 · · · ann

¯¯ = X

σ∈sn(σ) aσ(1)1 · · · aσ(n)n

ya que D(e1, ..., en) = 1. Para n = 2, puesto que 2! = 2, se obtieneXσ∈s2

(σ) aσ(1)1aσ(2)2 = (σ)aσ(1)1aσ(2)2 + (τ)aτ(1)1aτ(2)2 =

= a11a22 − a21a12

ya que (σ) = 1y (τ) = −1. Por tanto¯a11 a12a21 a22

¯= a11a22 − a21a12

Page 133: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.1. DETERMINANTE DE N VECTORES 121

Para n = 3, puesto que 3! = 6, se obtieneXσ∈s3

(σ) aσ(1)1aσ(2)2aσ(3)3 = (σ1) aσ1(1)1aσ1(2)2aσ1(3)3 + (σ2) aσ2(1)1aσ2(2)2aσ2(3)3 + (σ3) aσ3(1)2aσ3(2)

+ (σ4) aσ4(1)1aσ4(2)2aσ4(3)3 + (σ5) aσ5(1)1aσ5(2)2aσ5(3)3 + (σ6) aσ6(1)1aσ6(Xσ∈s3

(σ) aσ(1)1aσ(2)2aσ(3)3 = a11a22a33+a21a32a13+a31a12a23−a31a22a13−a11a32a23−a21a12a33

ya que (σ1) = (σ2) = (σ3) = 1 y (σ4) = (σ5) = (σ6) = −1. Portanto¯¯ a11 a12 a13a21 a22 a23a31 a32 a33

¯¯ = a11a22a33+a21a32a13+a31a12a23−a31a22a13−a11a32a23−a21a12a33

Observación 57 Para recordar la expresión que permite calcular los determi-nantes de orden 3 se tiene la regla de Sarrus: se multiplican los tres elementosde la diagonal principal; luego se multiplican los dos elementos situados sobreuna línea paralela por debajo (a21 y a32) a la diagonal principal por un tercerelemento que es el vértice (a13) que está por encima de la diagonal principal.Luego, se repite la misma multiplicación pero tomando la paralela por encima(a12 y a23) y el vértice (a31) por debajo de la diagonal principal. Ahora se sumanlos tres números obtenidos. Se procede de igual forma pero en lugar de tomar co-mo referencia la diagonal principal, se toma la otra diagonal, que está formadapor los elementos a13, a22 y a31. Después se suman los tres números obtenidos.Por último, se resta la segunda suma de la primera. Ejemplo:¯

¯ 2 1 −23 −5 11 4 7

¯¯ = [2 · (−5) · 7 + 3 · 4 · (−2) + 1 · 1 · 1]

− [(−2) · (−5) · 1 + 1 · 4 · 2 + 1 · 3 · 7]= −93− 39 = −132

Ejemplo 83 Hallar el signo del termino a21a12a43a34a55 que aparece en el de-sarrollo de un determinante de orden cinco.Solución: La permutación σ correspondiente a este término es

σ =¡2 1 4 3 5

¢=

¡4 3

¢ ¡2 1

¢Por tanto, (σ) = (−1)2 = 1, o sea, σ es una permuitación par.

Ejemplo 84 Comprobar que los vectores (1, 1, 1), (a, b, c), (b+ c, a+ c, a+ b) deR3 son linealmente dependientes.

Page 134: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

122 CAPÍTULO 4. DETERMINANTES

Solución: Calculemos el determinante de estos tres vectores¯¯ 1 a b+ c1 b a+ c1 c a+ b

¯¯ =

¯¯ 1 a a+ b+ c1 b a+ b+ c1 c a+ b+ c

¯¯

= (a+ b+ c)

¯¯ 1 a 11 b 11 c 1

¯¯

= 0

Por tanto, los tres vectores son linealmente dependientes.

4.2. Determinante de un endomorfismoTeorema 76 Sea f ∈ L(E) un endomorfismo de un espacio vectorial E dedimensión n sobre K. Para toda n−forma lineal alternada D, la aplicación bfdefinida como sigue

bf(D) : En −→ K(v1, ...,vn) 7−→ D(f(v1), ..., f(vn))

es una n-forma lineal alternada de E en K.Demostración: En efecto,bf(D)(v1, ..., avi, ...,vn) = D(f(v1), ..., f(avi), ..., f(vn))

= D(f(v1), ..., a f(vi), ..., f(vn))

= aD(f(v1), ..., f(vi), ..., f(vn))

= a bf(D)(v1, ...,vn)ybf(D)(v1, ...,vi +wi, ...,vn) = D(f(v1), ..., f(vi +wi), ..., f(vn))

= D(f(v1), ..., f(vi) + f(wi), ..., f(vn))

= D(f(v1), ..., f(vi), ..., f(vn)) +D(f(v1), ..., f(wi), ..., f(vn))

= bf(D)(v1, ...,vi, ...,vn) + bf(D)(v1, ...,wi, ...,vn)

y si vi = vj entonces f(vi) = f(vj) y, tenemosbf(D)(v1, ...,vi, ...,vj , ...,vn) = D(f(v1), ..., f(vi), ..., f(vj), ..., f(vn)) = 0

Teorema 77 La aplicación bf definida como siguebf : A (E,K) −→ A (E,K)

D 7−→ bf(D)

Page 135: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.2. DETERMINANTE DE UN ENDOMORFISMO 123

es lineal.Demostración: En efecto,

bf(aD)(v1, ...,vn) = (aD)(f(v1), ..., f(vi), ..., f(vn))

= a(D(f(v1), ..., f(vi), ..., f(vn)))

= a bf(D)(v1, ...,vn)Por tanto, bf(aD) = a bf(D)Además,

bf(D1 +D2)(v1, ...,vn) = (D1 +D2)(f(v1), ..., f(vi), ..., f(vn))

= D1(f(v1), ..., f(vi), ..., f(vn)) +D2(f(v1), ..., f(vi), ..., f(vn))

= bf(D1)(v1, ...,vn) + bf(D2)(v1, ...,vn)

Por tanto, bf(D1 +D2) = bf(D1) + bf(D2)

Teorema 78 La aplicación

L(E) −→ L(A (E,K))f 7−→ bf

es una aplicación del anillo L(E) en el anillo L(A (E,K)) que satisface las sigu-ientes propiedades

[g ◦ f = bf ◦ bg y bIE = IA(E,K)

Demostración: En efecto,

[g ◦ f(D)(v1, ...,vn) = D(g(f(v1)), ..., g(f(vn)))

= bg(D)(f(v1), ..., f(vn))= bf(bg(D))(v1, ...,vn)= ( bf ◦ bg)(D)(v1, ...,vn)

Por tanto, [g ◦ f = bf ◦ bg. Por otro lado, tenemosbIE(D)(v1, ...,vn) = D(IE(v1), ..., IE(vn))

= D(v1, ...,vn)

= IA(E,K)(D)(v1, ...,vn)

Por tanto, bIE = IA(E,K).

Page 136: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

124 CAPÍTULO 4. DETERMINANTES

Observación 58 Esta aplicación no es lineal ya que por ejemplo, si n ≥ 2 secumple

caf(D)(v1, ...,vn) = D((af)(v1), ..., (af)(vi), ..., (af)(vn))

= D(a f(v1), ..., a f(vi), ..., a f(vn))

= an(D(f(v1), ..., f(vi), ..., f(vn)))

= an bf(D)y por tanto caf(D) 6= a bf(D)Teorema 79 Para cada f ∈ L(E) existe un único k ∈ K tal que

bf = k IA(E,K)

Demostración: Puesto que A (E,K) ∼= K, en particular, A (E,K) tiene dimen-sión 1. Sea D una base de A (E,K), entonces

bf(D) = kD

para k ∈ K. Como cualquier D0 ∈ A (E,K) será de la forma D0 = rD, conr ∈ K, entonces

bf(D0) = bf(rD) = r bf(D) = rkD = kD0

es decir, bf = k IA(E,K).

Definición 60 Al elemento k de K correspondiente a f se le llama determi-nante del endomorfismo f y lo denotamos por det f . Por tanto, det f es elelemento de K que satisface

bf = (det f) IA(E,K)Corolario 25 Sea e1, ..., en una base de E y D una n−forma lineal alternadano nula de E en K, entonces

det f = det(ei)

D(f(e1), ..., f(en))

es decir, el determinante de f es el determinante de los vectores f(e1), ..., f(en)respecto de la base e1, ..., en.Demostración: Puesto que bf = (det f) IA(E,K), se tiene

bf(D) = det f IA(E,K)(D)= (det f)D

Por tanto, bf(D)(e1, ..., en) = (det f)D(e1, ..., en)

Page 137: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.2. DETERMINANTE DE UN ENDOMORFISMO 125

Por la definición de bf , se tienebf(D)(e1, ..., en) = D(f(e1), ..., f(en))

= det (ei)(f(e1), ..., f(en))D(e1, ..., en)

Igualando y teniendo en cuenta que D(e1, ..., en) 6= 0, se obtiene quedet f = det (ei)(f(e1), ..., f(en))

Corolario 26 Si f , g son dos endomorfismos de E, e I es la identidad, secumple

det(g ◦ f) = det g · det f y det I = 1

Si f es biyectiva, entonces

det f−1 = (det f)−1

Demostración: En efecto, de [g ◦ f = bf ◦ bg resultadet(g ◦ f) = det f · det g = det g · det f

De bIE = IA(E,K), resultadet I = 1

De f ◦ f−1 = I, se obtiene \f ◦ f−1 = df−1 ◦ bf = bIA(E,K). De aquí, resultadet f−1 · det f = 1

Corolario 27 Condición necesaria y suficiente para que un endomorfismo f deE sea un automorfismo es que det f 6= 0.Demostración: Sea e1, ..., en una base de E. Sabemos que f es un automorfis-mo de E si y sólo si los vectores f(e1), ..., f(en) son linealmente independientes,lo cual equivale por el corolario 3 a

det f = det (ei)(f(e1), ..., f(en)) 6= 0

Ejemplo 85 Se considera el endomorfismo de R3 definido por

f(e1) = e1 − e2f(e2) = e2 − e1f(e3) = e3

siendo (e1, e2, e3) la base canónica de R3. Averiguar si f es o no un automor-fismo.

Page 138: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

126 CAPÍTULO 4. DETERMINANTES

Solución: Se tiene

det f = det (ei)(f(e1), f(e2), f(e3))

Por tanto,

det f =

¯¯ 1 −1 0−1 1 00 0 1

¯¯ = 0

luego f no es un automorfismo.

4.3. Determinante de una matriz cuadradaDefinición 61 Dada una matriz cuadrada de orden n sobre K

A =

a11 · · · a1n...

. . ....

an1 · · · ann

se llama determinante de A al elemento de K denotado por detA y definidocomo sigue

detA =Xh∈sn

(h) ah11 · · · ahnn

Usaremos también la notación

detA =

¯¯ a11 · · · a1n...

. . ....

an1 · · · ann

¯¯

Observación 59 Fijado un espacio vectorial E sobre K y una base e1, ..., en deE. Podemos interpretar las columnas de A como las coordenadas de los vectoresde E

ai =nXj=1

ajiej

Tenemos así una correspondencia biyectiva entre matrices cuadradas de ordenn y n−tuplas de vectores de E

Mn(K) → EnA = (aij) 7−→ (a1, ..., an)

de forma quedetA = det (ei)(a1, ..., an)

Esta correspondencia permite traducir enseguida las propiedades de los deter-minantes de n vectores en propiedades de los determinantes de las matricescuadradas de orden n.

Page 139: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 127

Corolario 28 Sea e1, ..., en una base de E y f un endomorfismo de E. Si A esla matriz asociada a f en la base e1, ..., en, entonces

det f = detA =

¯¯ a11 · · · a1n...

. . ....

an1 · · · ann

¯¯

siendo

f(ei) =nXj=1

ajiej

Demostración: Es inmediato a partir de

det f = det (ei)(f(e1), ..., f(en))

Observación 60 Con este resultado es claro que todas las matrices asociadasa un endomorfismo en diferentes bases tienen el mismo determinante. De estemodo, se concluye que el determinante de un endomorfismo es ”invariante”frente a los cambios de base.

Corolario 29 Si A y B son dos matrices cuadradas de orden n, entonces

1. det In = 1

2. det(AB) = detA detB

3. Si A es además inversible, entonces detA−1 = (detA)−1

Demostración: A partir del hecho de que cualquier matriz cuadrada es la ma-triz de un endomorfismo en una cierta base de un espacio vectorial de dimensiónn y del corolario ??? se deducen de forma inmediata estos resultados.

Teorema 80 Sea A una matriz cuadrada de orden n sobre K y At su matriztraspuesta. Entonces

detA = detAt

Demostración: Sean A = (aij) y At = (bij), de forma que aij = bji. Entonces,tenemos

detA =Xh∈sn

(h) ah(1)1 · · · ah(n)n

=Xh∈sn

(h) a1h−1(1) · · · anh−1(n)

=Xk∈sn

(k) a1k(1) · · · ank(n)

=Xk∈sn

(k) ak(1)1 · · · ak(n)n

= detAt

en donde k = h−1.

Page 140: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

128 CAPÍTULO 4. DETERMINANTES

Observación 61 Este resultado tiene como consecuencia que todas las propiedadesde los determinantes de matrices cuadradas de orden n referentes a sus columnasdan lugar a propiedades referentes a sus filas. Por ejemplo, si multiplicamos loselementos de una fila por un elemento a de K, el valor del determinante quedamultiplicado por a; si una fila es combinación lineal de las otras, el determinantees cero; etc.

Corolario 30 Sea f un endomorfismo y f0su dual. Entonces se cumple

det f = det f 0

Demostración: Recordemos que si A es la matriz asociada a un endomorfismof en una cierta base, la traspuesta At es la matriz asociada a la aplicación dualf 0 en la base dual de la anterior. Por tanto, por el teorema anterior, obtenemosdet f = det f 0.

Ejemplo 86 Calcular el determinante de una matriz antisimétrica de orden nimpar.Solución: Sea A dicha matriz. Se tiene

detA = detAt = det(−A) = (−1)n detA = −detA

Por tanto, detA = 0.

Ejemplo 87 De dos matrices cuadradas A y B de orden 2 se sabe que

AB =

µ7 55 15

¶y AB =

µa 82 b

¶Calcular los posiles valores de a y b.Solución: Sabemos que

|AB| = 105− 25 = 80 = |A| |B|

y

|BA| = ab− 16 = |B| |A|

De donde, ab − 16 = 80, o sea que ab = 96. Pero como tr(AB) = tr(BA), setiene además 22 = a+ b. Por tanto, resolviendo el sistema

ab = 96a+ b = 22

¾se obtienen las soluciones a = 6, b = 16 y a = 16, b = 6.

Page 141: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 129

4.3.1. Desarrollo por los elementos de una fila o columna

Designemos por a1, ..., an los vectores columna de una matriz cuadradaA = (aij) de orden n. Observemos que cada columna interviene una y sólouna vez en cada término de detA, lo cual significa que fijadas n − 1 columnasa1, ..., aj−1, aj+1, ..., an la aplicación det(a1, ..., aj−1, ∗, aj+1, ..., an) es lineal enlos elementos a1j , ..., aij , ..., anj de la j−ésima columna de A. Agrupando lostérminos en que interviene cada aij obtendremos una expresión de la forma

detA = A1ja1j + · · ·+Aijaij + · · ·+Anjanj

en la que el coeficiente Aij de aij es una expresión que dependerá sólo de lasrestantes columnas a1, ..., aj−1, aj+1, ..., an. Como en cada factor (h) ah11 · · · ahnninterviene exactamente un elemento de cada fila y, también, un elemento de cadacolumna, es claro que en el coeficiente Aij no pueden intervenir ni los elementosde la fila i ni los elementos de la columna j. En él intervienen solamente loselementos de la submatriz Mij , que es la matriz obtenida al suprimir de A lafila i y la columna j.Como las filas y columnas intervienen simétricamente en detA, se tiene de

forma análoga el desarrollo de detA por los elementos de una fila.

Ejemplo 88 Sabemos por la regla se Sarrus que¯¯ 2 1 −23 −5 11 4 7

¯¯ = −132

Ahora se trata de calcular el determinante desarrollándolo por la primera fila.Solución:¯¯ 2 1 −23 −5 11 4 7

¯¯ = 2 · (−1)1+1

¯ −5 14 7

¯

+1 · (−1)1+2¯3 11 7

¯+ (−2) · (−1)1+3

¯3 −51 4

¯= −78− 20− 34 = −132

Definición 62 El coeficiente Aij se llama adjunto (o cofactor) del elementoaij en la matriz A. Entonces, cuando

detA = a1jA1j + · · ·+ aijAij + · · ·+ anjAnj

se dice que hemos desarrollado detA por los elementos de la columna j−ésima.Análogamente se tiene el desarrollo de detA por los elementos de una fila.

Definición 63 Dado un elemento aij de A, se llamamenor complementariode aij al determinante de la submatriz Mij de A que se obtiene de suprimir enesta, la fila i−ésima y la columna j−ésima.

Page 142: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

130 CAPÍTULO 4. DETERMINANTES

Teorema 81 Si Aij es el adjunto y Dij es el menor complementario de aij, setiene

Aij = (−1)i+j |Mij |Demostración: Si i = j = 1, entonces la definición

detA =Xh∈sn

(h) ah11 · · · ahnn

muestra claramente que los términos en que interviene a11 son exactamente lostérminos que resultan de todas las permutaciones σ ∈ Sn tales que σ(1) = 1.Una permutación par (impar) de este tipo continúa siendo una permutación par(impar) de los restantes índices 2, ..., n, ya que σ(1) = 1 no forma inversión conlos siguientes σ(i). Por tanto,

A11 =Xσ∈s0

(σ) aσ22 · · · aσnn = |M11|

donde S0 = {2, ..., n}.Cualquier otro adjunto Aij puede ahora reducirse a este caso especial, lle-

vando el término aij a la posición (1, 1) por medio de i−1 trasposiciones de filas(la i−ésima con cada una de las precedentes), seguido de j − 1 trasposicionesde columnas (la j−ésima con cada una de las precedentes). Estas operacionesno alteran |Mij |, pues la posición relativa de las filas y columnas de Mij quedainalterada, pero cambia (i− 1)+ (j− 1) veces de el signo de detA. Así tenemos

detA∗ = (−1)i+j detAdonde A∗ es la matriz resultante de estas operaciones. Ahora bien, desarrollandodetA∗ y detA, el coeficiente de aij en el primero es |Mij | y en el segundo es(−1)i+j Aij; como ambos miembros son iguales, queda probado el teorema.

Corolario 31 El desarrollo de detA por los elementos de una columna, puedeescribirse así

detA = (−1)1+j(a1jAij − · · · ± anjAnj)

donde en el paréntesis se toman alternativamente los signos más o menos.Análogamente se escribiría el desarrollo por los elementos de una columna.Demostración: Es inmediato a partir del teorema anterior.

Observación 62 1. La fórmula del corolario reduce el cálculo de un deter-minante de orden n al de determinantes de órdenes n − 1, lo cual tienegran interés práctico en la mayoría de ocasiones.

2. Un caso de especial interés es aquel en el cual todos los elementos de laprimera columna, a excepción del primero, son nulos. En el desarrollo

detA = a1jA1j + · · ·+ anjAnj

aparece entonces solamente el primer adjunto |M11| = A11, es decir,

detA = a11 |M11|

Page 143: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 131

Corolario 32 El determinante de una matriz triangular es el producto de suselementos diagonales.Demostración: Este resultado se obtiene de forma inmediata por inducción apartir de la observación anterior.

Ejemplo 89 Calcular por triangulación el valor del determinante siguiente¯¯ 1 2 1 2−1 1 2 11 1 2 2−2 1 1 1

¯¯

Solución: ¯¯ 1 2 1 2−1 1 2 11 1 2 2−2 1 1 1

¯¯ =

¯¯ 1 2 1 20 3 3 30 −1 1 00 5 3 5

¯¯

= 3

¯¯ 1 2 1 20 1 1 10 −1 1 00 5 3 5

¯¯

= 3

¯¯ 1 2 1 20 1 1 10 0 2 10 0 −2 0

¯¯

= 3

¯¯ 1 2 1 20 1 1 10 0 2 10 0 0 1

¯¯

= 3 · 1 · 1 · 2 · 1 = 6

Recordemos que una operación elemental entre filas transforma la identidaden una matriz elemental E y la matriz A en el producto EA.

Teorema 82 Si E es una matriz elemental,

|EA| = |E| |A| = |AE|Demostración: En efecto, para la transformación elemental E1 que consiste enmultiplicar la i−ésima fila de A por un escalar c 6= 0, se tiene detE1 = c; parala operación E2 que consiste en permutar dos filas de A, se tiene detE2 = −1; ypara la operación E3 que consiste en sumar a la fila i el producto de a por la filaj, se tiene detE3 = 1. Por tanto, según las propiedades de los determinantes,obtenemos |E1A| = c |A|, |E2A| = − |A| y |E3A| = |A|, respectivamente. Esto

Page 144: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

132 CAPÍTULO 4. DETERMINANTES

demuestra que |EA| = |E| |A|; por simetría, según el teorema (traspuesta), lomismo se aplica a las operaciones elementales entre columnas, obteniendo que|AE| = |A| |E|.Observación 63 Estos últimos resultados proporcionan un método útil paracalcular el valor del determinante de una matriz A. Se reduce A mediante trans-formaciones elementales a una forma triangular T ; sea t el número de inter-cambios de filas (o columnas) efectuado, y sean c1, ..., ck los diversos escalaresutilizados para multiplicar filas (o columnas) de A. Por el teorema anterior, setiene

detA = (−1)t (c1 · · · · · ck)−1 detTEl cálculo se concluye poniendo

detT = t11 · · · · · tnnsegún el último corolario.

4.3.2. Cálculo del rango de una matriz por determinantes

Sea E un espacio vectorial de dimensión n. En el teorema ??? hemos dadoun criterio para saber si n vectores de E son, o no, linealmente independientes:lo son si y sólo si su determinante es diferente de 0. En este apartado queremosampliar este criterio para poder reconocer si k vectores v1, ...,vm de E son, ono, linealmente independientes, cuáles de ellos son combinación lineal del restoy cuáles son las combinaciones lineales que los relacionan.Sea e1, ..., en una base de E. Una vez fijada una base, cada vector vendrá

representado por una n−tupla de elementos del cuerpo K, sus coordenadas, ycada conjunto de vectores v1, ...,vm por una matriz dem columnas formadas porlas coordenadas de los m vectores. Toda matriz A de orden n × m, correspondea m vectores de E. Recordemos que se llama rango de A al número máximode vectores-columna de A linealmente independientes. El problema planteadoequivale, pues, al cálculo del rango de una matriz.

Definición 64 Se llaman menores de orden p de una matriz A de ordenn ×m a las submatrices cuadradas de orden p que se obtienen de la matriz Aal suprimir ciertas filas y columnas.

Teorema 83 El rango de una matriz A es el máximo de los órdenes de losmenores de A con determinante no nulo.Demostración: Indicaremos por aj el vector correspondiente a la columna jde la matriz A = (aij); es decir, las coordenadas de aj en la base prefijada son(a1j , ..., anj). Supongamos que rang A = r. Demostraremos, en primer lugar,que todo menor de orden p > r tiene determinante cero. Sean j1, ..., jp las colum-nas con las cuales se ha formado el menor. Los vectores-columna aj1 , ...,ajp sonlinealmente dependientes y, por tanto, su determinante será cero.Veamos ahora que hay un menor de orden r con determinante no nulo.

En la matriz A hay por hipótesis r columnas linealmente independientes; sean

Page 145: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 133

aj1 , ..., ajr . Completemos estos vectores-columna con vectores de la base e1, ..., enen la que trabajamos hasta obtener una base del espacio aj1 , ..., ajr , ehr+1 , ..., ehn .La matriz A∗ formada por estos vectores en columna tiene el siguiente determi-nante

detA∗ =

¯¯¯¯¯¯

a1j1 · · · a1jr 0 · · · 0 · · · 0a2j1 · · · a2jr 0 · · · 1 · · · 0... · · · ...

... · · · ... · · · ...... · · · ... 1 · · · ... · · · ...... · · · ...

... · · · ... · · · ...... · · · ...

... · · · ... · · · 1... · · · ...

... · · · ... · · · ...

anj1 · · · anjr 0 · · · ... · · · 0

¯¯¯¯¯¯

En cada una de las n− r últimas columnas, todos los elementos son 0, exceptouno que vale 1; ese elemento aparece en cada columna en una fila distinta.Desarrollando sucesivamente este determinante por cada una de las n−r últimascolumnas, se obtiene

detA∗ = ±

¯¯ ai1j1 · · · ai1jr

... · · · ...airj1 · · · airjr

¯¯

Como los vectores-columna aj1 , ..., ajr son linealmente independientes, se de-duce que detA∗ 6= 0. Obtenemos así un menor de orden r de la matriz A condeterminante no nulo.

Observación 64 El teorema anterior proporciona un método para cualcular elrango de una matriz A mediante el cálculo de los determinantes de los menoresde A. En la práctica, para calcular el rango de una matriz por determinantestendremos en consideración la siguiente propiedad: si en una matriz tenemos eldeterminante de un menor de orden p distinto de cero y al añadirle una fila fijay todas las demás columnas (de una en una) se forman menores de orden p+1cuyo determinante son todos nulos, entonces esta fila es combinación lineal delas demás filas y por tanto se puede suprimir para el cálculo del rango. Estapropiedad es también válida cambiando filas por columnas. Para probar estapropiedad se pueden aplicar transformaciones elementales y las propiedades delos determinantes.

Ejemplo 90 Calcular el rango de la siguiente matriz

A =

1 2 3 1 52 1 3 0 11 1 2 0 24 4 8 1 8

Page 146: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

134 CAPÍTULO 4. DETERMINANTES

Solución: Se cumple

det

µ1 22 1

¶6= 0

Añadiéndole la tercera fila y las demás columnas resultan menores de orden 3.Observamos que ¯

¯ 1 2 32 1 31 1 2

¯¯ = 0 y

¯¯ 1 2 12 1 01 1 0

¯¯ 6= 0

Añadiendo al menor cuyo determinante es no nulo la cuarta fila y las demáscolumnas se obtienen los menores de orden 4. Observamos que¯

¯ 1 2 3 12 1 3 01 1 2 04 4 8 1

¯¯ = 0 y

¯¯ 1 2 1 52 1 0 11 1 0 24 4 1 8

¯¯ = 0

Por tanto, rang A = 3 y además, según estos resultados, podemos concluir quela cuarta fila es combinación lineal de las tres primeras; en efecto, la suma delas tres primeras filas es la fila cuarta.

Corolario 33 Una matriz A y su traspuesta At tienen el mismo rango

rang A = rang At

Demostración: Es inmediato a partir del teorema ???

Corolario 34 Una aplicación lineal f y su dual f 0 tienen el mismo rango.Demostración: Sabemos que el rango de una aplicación lineal f : E −→F es la dimensión de Im f . Si e1, ..., en es una base de E, entonces Im f =hf (e1) , ..., f (en)i. Las coordenadas de f (e1) , ..., f (en) forman las columnasde la matriz A asociada a f . Por tanto,

rang f = rang A

El resultado se deduce ahora del teorema ??? y el corolario ???

4.3.3. Cálculo por determinantes de la matriz inversa

Teorema 84 Una matriz cuadrada A es inversible si y sólo si detA 6= 0.Demostración: Mediante las transformaciones elementales entre filas y colum-nas, cualquier matriz cuadrada A resulta equivalente a una matriz diagonal D,así como A puede obtenerse a partir de D por matrices elementales F y C, detipo fila y columna respectivamente.

A = Fs · · · · · F1DC1 · · · · · Cr

Page 147: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 135

Según el teorema ???, se tiene

|A| = |Fs| · · · · · |F1| |D| |C1| · · · · · |Cr|Como cada |Fi| 6= 0 y |Ci| 6= 0, será |A| 6= 0 si y sólo si |D| 6= 0. La formacanónica D tiene exactamente r elementos 1 en la diagonal principal, siendor = rang A. Por tanto, |D| es el producto de sus n elementos diagonales y, enconsecuencia, |D| 6= 0 si y sólo si r = n, es decir, si y sólo si A es una matrizinversible.

Lema 1 Sea A una matriz cuadrada de orden n. La suma de los productosde los elementos de una columna (fila) por los adjuntos de una columna (fila)paralela es cero.Demostración: Consideremos las columnas i y j de A con i 6= j. Sea A∗ lamatriz que se obtiene sustituyendo en A la columna j por la columna i. Como A∗

tiene dos columnas iguales se tiene detA∗ = 0. Si ahora desarrollamos detA∗

por los elementos de la columna j, se tiene

detA∗ = a1iA1j + · · ·+ aniAnj = 0

Análogamente para filas, se tiene

ai1Aj1 + · · ·+ ainAjn = 0

Teorema 85 Si A es una matriz cuadrada y detA 6= 0, entoncesA−1 = (detA)−1(Aij)

t

donde (Aij) es la matriz de los adjuntos de los elementos de la matriz A.Demostración: La ecuación obtenida en el lema anterior para filas

ai1Aj1 + · · ·+ ainAjn = 0 (i 6= j)

y la ecuación también para filas de

detA = ai1Ai1 + · · ·+ ainAin

pueden escribirse conjuntamente así

ai1Aj1 + · · ·+ ainAjn = δij |A|donde

δij =

½1 si i = j0 si i 6= i

El número δij es precisamente el elemento (i, j) de la matriz identidad I; luego,I = (δij). La igualdad anterior es muy semejante a un producto matricial; silos subíndices de los adjuntos Aji se intercambian, el primer miembro de la

Page 148: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

136 CAPÍTULO 4. DETERMINANTES

igualdad da el elemento (i, j) del producto de A = (aij) por la matriz traspuestade la matriz de los adjuntos de los elementos de A

(ai1A1j + · · ·+ ainAnj) = A (Aij)t

El segundo miembro de la igualdad es el elemento (i, j) de la identidad multi-plicada por el escalar |A|. Por lo tanto, tenemos

A (Aij)t = |A| I

Como detA 6= 0, A es inversible y, en consecuencia,

A−1 = |A|−1 (Aij)t

Definición 65 Sea A = (aij) una matriz cuadrada, se llama matriz adjuntade A a la matriz que tiene por elemento (i, j) el adjunto Aij de aij de A.

Ejemplo 91 Calcular la matriz inversa de la siguiente matriz

A =

1 2 21 1 11 0 1

Solución: Observemos en primer lugar que

detA = −1 6= 0

luego A es inversible. Para calcular su inversa, primero calcularemos la matrizadjunta de A 1 0 −1

−2 −1 20 1 −1

Por tanto,

A−1 = |A|−1 (Aij)t = −

1 0 −1−2 −1 20 1 −1

t

=

−1 2 00 1 −11 −2 1

Page 149: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 5

Sistemas de ecuacioneslineales

5.1. Planteamiento del problemaSupongamos que tenemos un sistema de ecuaciones lineales

a11x1 + a12x2 + · · ·+ a1nxn = b1a21x1 + a22x2 + · · ·+ a2nxn = b2

...am1x1 + am2x2 + · · ·+ amnxn = bm

donde los aij y bi son elementos conocidos de un cuerpo conmutativo K. Setrata de encontrar las n−tuplas (x1, ..., xn) de Kn que satisfacen todas estasecuaciones.

Observación 65 Cada una de las ecuaciones del sistema se llama una ecuaciónlineal con las incógnitas x1, ..., xn y, en conjunto, forman lo que se llama unsistema de m ecuaciones lineales en dichas n incógnitas. Los elementos aijse llaman los coeficientes del sistema. Los elementos bi se llaman términosindependientes de las ecuaciones del sistema.

Si hacemos

A =

a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

,b =

b1b2...bm

,x =

x1x2...xn

podemos escribir entonces el sistema anterior en forma matricial como sigue

Ax = b

137

Page 150: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

138 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

Observación 66 Los coeficientes del sistema forman la matriz A que se llamamatriz del sistema. Su rango se llama rango del sistema.

Este mismo problema se puede plantear de otra manera. Sean E y F dosespacios vectoriales sobre K con bases u1, ...,un y v1, ...,vm, respectivamente.Entonces, sabemos que existe una aplicación lineal f : E −→ F que tienecomo matriz asociada en esas bases la matriz A. Designemos por b el vectorb = b1v1 + · · ·+ bmvm de F y por x el vector x = x1u1 + · · ·+ xnun de E. Laecuación matricial Ax = b es equivalente a escribir

f (x) = b

De este modo, el problema de hallar las soluciones del sistema se traduce enencontrar las antiimágenes del vector b por la aplicación lineal f .Recíprocamente, dada una aplicación lineal f : E −→ F y un vector b ∈ F,

el problema de encontrar las antiimágenes x de b es equivalente a resolver elsistema de ecuaciones lineales

Ax = b

donde A es la matriz asociada a f en unas ciertas bases y b,x son matricesde una columna formadas por las coordenadas de los vectores correspondientes.Tanto en la primera interpretación como en la segunda, nuestro objetivo es

1. Saber cuándo el problema tiene solución y cuándo no

2. Si tiene solución, saber cuántas soluciones tiene

3. Dar un método para encontrar todas las soluciones

Para resolver cada una de estas cuestiones usaremos la interpretación que nosresulte más cómoda. En general, los razonamientos de tipo teórico son más sim-ples en el lenguaje de aplicaciones lineales y la resolución de los casos concretosse lleva a cabo mediante el lenguaje de matrices.

5.2. Existencia de soluciones de un sistema deecuaciones lineales

La condición necesaria y suficiente para que b admita una antiimagen, esdecir, para que el sistema tenga solución, es que b ∈ Im f . Puesto que

Im f = hf (u1) , ..., f (un)iresulta el siguiente teorema.

Teorema 86 La condición necesaria y suficiente para que un sistema de ecua-ciones lineales sobre un cuerpo K tenga solución es que la matriz del sistemay la que se obtiene al añadir la columna de términos independientes, tengan elmismo rango.

Page 151: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.2. EXISTENCIA DE SOLUCIONES DE UN SISTEMADE ECUACIONES LINEALES139

Demostración: Es claro que la concidición b ∈ Im f es equivalente a

hf (u1) , ..., f (un)i = hf (u1) , ..., f (un) ,bi

Por tantorang f = dim Im f = dim hf (u1) , ..., f (un) ,bi

Sabemos que rang f = rang A, luego

rang A = rang (A|b)

donde (A|b) indica la matriz que se obtiene añadiendo a A la columna formadapor las coordenadas de b.

Observación 67 En lenguaje de matrices, tenemos que el sistema Ax = btiene solución si y sólo si

rang A = rang (A|b)

A la matriz (A|b) suele llamarse matriz ampliada del sistema. Conocemosmétodos para calcular el rango de una matriz. Por tanto, tenemos resuelto elproblema de saber si el sistema tiene o no soluciones.

Definición 66 Se llama sistema homogéneo asociado al sistema

Ax = b

al sistema de ecuaciones lineales que se obtiene haciendo bi = 0 para todo i =1, ...,m.

Teorema 87 Las soluciones del sistema de ecuaciones lineales Ax = b, siexisten, se obtienen sumando a una solución particular del sistema las solucionesdel sistema homogéneo asociado.Demostración: En la demostración del primer teorema de isomorfismo, se havisto que todos los vectores de E que se aplican por f en el mismo vector deF forman una clase x0 + ker f módulo el núcleo de f . Es decir, si f(x0) = b,entonces cualquier vector x de la clase x0 + ker f tiene esa misma propiedad,f(x) = b. Así pues, b tiene tantas antiimágenes como vectores tiene ker f .Además, todas las antiimágenes se obtienen sumando a una solución particularx0 los vectores de ker f . Según la definición de ker f , los vectores de ker f tienenpor coordenadas las soluciones del sistema homogéneo asociado al sistema dado

Ax = 0

Observación 68 Con este ultimo teorema también hemos resuelto el problemade saber cuántas soluciones tiene el sistema, siempre que tenga solución.

Page 152: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

140 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

5.3. Regla de CramerVamos a dar en este apartado un método para encontrar las soluciones de

un sistema de ecuaciones lineales en un caso muy particular.

Teorema 88 (Regla de Cramer) Sea el sistema Ax = b y supongamos quela matriz A es cuadrada de orden n y que detA 6= 0. Entonces el sistema tieneuna única solución x = (x1, ..., xn) y se cumple

xi =det (a1, ..., ai−1,b,ai+1, ..., an)

detA

para todo i = 1, ..., n; los vectores a1, ...,an respresentan los vectores columnade la matriz A.Demostración: Supongamos que en la ecuación matricial

Ax = b

la matriz A es cuadrada de orden n y que detA 6= 0. Esto es equivalente asuponer que en la ecuación siguiente

f (x) = b

f es un isomorfismo. Entonces sabemos que hay una solución y sólo una, quees

x = A−1 b

Sabemos también queA−1 = (detA)−1 (Aij)

t

donde (Aij) representa la matriz adjunta de A. Por tanto

xi = (detA)−1

nXj=1

Ajibj

Ahora bien, la expresiónnXj=1

Ajibj

es el desarrollo por los términos de la columna i del determinante de una matrizcon los mismos elementos que A, salvo la columna i, que ha sido sustituida por(b1, ..., bn). Designemos ese determinante por det (a1, ..., ai−1,b,ai+1, ..., an).Entonces tenemos

xi =det (a1, ..., ai−1,b,ai+1, ..., an)

detA

para todo i = 1, ..., n. Estas fórmulas se conocen con el nombre de regla deCramer y proporcionan un método para hallar la única sólución del sistemacuando detA 6= 0.

Page 153: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.4. RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES 141

Ejemplo 92 Resolver el sistema

×+ 2y − 3z + t = 22x− y − z − t = 1−x+ y + 2z − t = 03x+ 2y − 4z − 3t = 1

Solución: La matriz del sistema es cuadrada de orden 4 y su determinante

es ¯¯ 1 2 −3 1

2 −1 −1 −1−1 1 2 −13 2 −4 −3

¯¯ = 27 6= 0

Por tanto el sistema tiene una sola solución. Aplicando la regla de Cramer,obtenemos

x =

¯¯ 2 2 −3 11 −1 −1 −10 1 2 −11 2 −4 −3

¯¯

27= 2

y =

¯¯ 1 2 −3 1

2 1 −1 −1−1 0 2 −13 1 −4 −3

¯¯

27= 1

z =

¯¯ 1 2 2 1

2 −1 1 −1−1 1 0 −13 2 1 −3

¯¯

27= 1

t =

¯¯ 1 2 −3 2

2 −1 −1 1−1 1 2 03 2 −4 1

¯¯

27= 1

5.4. Resolución de un sistema de ecuaciones lin-eales

Vamos a dar en este apartado un método para encontrar las soluciones deun sistema de ecuaciones lineales en el caso general.

Page 154: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

142 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

Teorema 89 Sea el sistema Ax = b y supongamos que se cumple

rang A = rang (A|b) = r

y que el menor M de orden r de A

M =

ai1j1 · · · ai1jr...

. . ....

airj1 · · · airjr

tiene determinante no nulo. Entonces el sistema admite las soluciones x =(x1, ..., xn) tales que

x1 = λ1 −n−rXi=1

λi1xr+i

...

xr = λr −n−rXi=1

λirxr+i

xr+1 = λr+1...

xn = λn

donde λ1, ..., λr es la solución única del sistema

ai1j1λ1 + · · ·+ ai1jrλr = bi1...

airj1λ1 + · · ·+ airjrλr = bir

obtenida por la regla de Cramer, y λi1, ..., λir (i = 1, ..., n − r) es la soluciónúnica de cada sistema

ai1j1λi1 + · · ·+ ai1jrλir = a1r+i...

airj1λi1 + · · ·+ airjrλir = arr+i

para cada i = 1, ..., n− r obtenida también por la regla de Cramer.Demostración: Dado el sistema Ax = b,

a11x1 + a12x2 + · · ·+ a1nxn = b1a21x1 + a22x2 + · · ·+ a2nxn = b2

...am1x1 + am2x2 + · · ·+ amnxn = bm

Page 155: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.4. RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES 143

Observemos que el sistema es equivalente a la siguiente ecuación vectorial

a1x1 + a2x2 + · · ·+ anxn = bdonde a1,a2, ..., an son los vectores columna de la matriz A. Sabemos por hipóte-sis que

rang A = rang (A|b) = r

A fin de facilitarnos la notación, no es restrictivo suponer que hemos reordenadoconvenientemente las ecuaciones y las incógnitas para conseguir que el menor a11 · · · a1r

.... . .

...ar1 · · · arr

tenga determinante D 6= 0; obsérvese que así evitamos escribir las permuta-ciones i, j ∈ Sr, presentes en el enunciado del teorema. Por tanto, los vectorescolumna a1, ..., ar de A son linealmente independientes; observemos, en partic-ular, que r ≤ n. En estas condiciones, tenemos

ar+i = λi1a1 + · · ·+ λirar (i = 1, ..., n− r)

b = λ1a1 + · · ·+ λrar

es decir, los n − r vectores columna restantes de A son combinaciones linealesde los r primeros. Sustituyendo estos resultados en la ecuación

a1x1 + · · ·+ arxr + ar+1xr+1 + · · ·+ anxn = bse obtiene

(x1 +n−rXi=1

λi1xr+i − λ1)a1 + · · ·+ (xr +n−rXi=1

λirxr+i − λr) ar = 0

De aquí, por la independencia lineal de los vectores a1, ...,ar, todos los coefi-cientes de la combinación son nulos y, por tanto, se obtiene

x1 = λ1 −n−rXi=1

λi1xr+i

...

xr = λr −n−rXi=1

λirxr+i

donde xr+1, ..., xn pueden tomarse arbitrariamente en K. Estas fórmulas dan ex-plícitamente las soluciones del sistema de ecuaciones una vez conocidos los ele-mentos λ1, ..., λr, λ11, ..., λ1r, ...., λn−r1, ..., λn−rr del cuerpo K. Por tanto, debe-mos calcular estos elementos. Para ello, consideremos los sistemas que resultan

Page 156: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

144 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

al igualar las r primeras componentes de ambos miembros de las igualdadessiguientes

a1λi1 + · · ·+ arλir = ar+i (i = 1, ..., n− r)

a1λ1 + · · ·+ arλr = b

es decir,a11λi1 + · · ·+ a1rλir = a1r+i

...ar1λi1 + · · ·+ arrλir = arr+i

(i = 1, ..., n− r)

ya11λ1 + · · ·+ a1rλr = b1

...ar1λ1 + · · ·+ arrλr = br

Este último sistema de r ecuaciones lineales con r incógnitas λ1, ..., λr tienerango r por la condición que hemos supuesto. La única solución se obtendrá porla regla de Cramer

λi =det (a1, ..., ai−1,b,ai+1, ..., ar)

detD(i = 1, ..., r)

Por otro lado, cada uno de los sistemas

a11λi1 + · · ·+ a1rλir = a1r+i...

ar1λi1 + · · ·+ arrλir = arr+i

(i = 1, ..., n− r)

tiene también rango r y la solución se obtendrá por la regla de Cramer

λij =det (a1, ..., aj−1,ar+i,aj+1, ...,ar)

detD

siendo i = 1, ..., n− r y j = 1, ..., r.

Teorema 90 Sea el sistema Ax = b y supongamos que se cumple

rang A = rang (A|b) = r

y que el menor M de orden r de A

M =

ai1j1 · · · ai1jr...

. . ....

airj1 · · · airjr

Page 157: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.4. RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES 145

tiene determinante no nulo. Las soluciones admitidas por el sistema en el teo-rema anterior

x1 = λ1 −n−rXi=1

λi1xr+i

...

xr = λr −n−rXi=1

λirxr+i

xr+1 = λr+1...

xn = λn

donde λr+1, ..., λn ∈ K pueden escogerse arbitrariamente, son todas las solu-ciones del sistema

a11x1 + a12x2 + · · ·+ a1nxn = b1a21x1 + a22x2 + · · ·+ a2nxn = b2

...am1x1 + am2x2 + · · ·+ amnxn = bm

Demostración: Si hacemos xr+1 = · · · = xn = 0, por las fórmulas se obtieneel vector

x0 = (λ1, ..., λr, 0, ..., 0)

Obsérvese que es una solución ya que al sustituir en el sistema de ecuacionesse obtienen las condiciones

a11λ1 + · · ·+ a1rλr = b1...

ar1λ1 + · · ·+ arrλr = br

que se satisfacen por el teorema anterior. Si en xr+1, ..., xn hacemos xr+i = 1y el resto todos nulos para cada i = 1, ..., n− r, los vectores que se obtienen porlas fórmulas son

x1 = (λ1 − λ11, λ2 − λ12, ..., λr − λ1r, 1, 0, ..., 0)

x2 = (λ1 − λ21, λ2 − λ22, ..., λr − λ2r, 0, 1, ..., 0)

...

xn−r = (λ1 − λn−r1, λ2 − λn−r2, ..., λr − λn−rr, 0, 0, ..., 1)

obsérvese que cada una de ellas es una solución ya que al sustituir en el sistemase obtienen las condiciones

a11λi1 + · · ·+ a1rλir = a1r+i...

ar1λi1 + · · ·+ arrλir = arr+i

(i = 1, ..., n− r)

Page 158: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

146 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

que se satisfacen por el teorema anterior. Los vectores

x1 − x0,x2 − x0, ...,xn−r − x0son del núcleo de la aplicación lineal f asociada al sistema Ax = b. En efecto

A(xi − x0) = Axi −Ax0 = b− b = 0Puesto que estos vectores son linealmente independientes (por qué? se comprue-ba inmediatamente observando las últimas n − r componentes) y sabemos quedimker f = n− r, son una base del núcleo. Por tanto, según el teorema 2, todaslas soluciones del sistema son de la forma

x0 + ker f = x0 +n−rXi=1

(xi − x0)xr+i

que coinciden con las soluciones dadas por las fórmulas del teorema anterior.Por tanto, hemos demostrado que dichas fórmulas dan todas las soluciones delsistema.

Observación 69 Las incógnitas xr+1, ..., xn cuyos valores puden elegirse ar-bitrariamente en K se llaman incógnitas no principales, mientras que lasrestantes se llaman incógnitas principales. Supuesto que el sistema tiene solu-ciones y es de rango r, del teorema anterior ??? se sigue que como incógnitasprincipales podemos elegir r cualesquiera de ellas con tal que las columnas delmismo subíndice sean vectores linealmente independientes.

Los resultados de los teoremas anteriores suelen resumirse en el siguienteteorema.

Teorema 91 (Teorema de Rouché-Frobenius) La condición necesaria y su-ficiente para que un sistema de m ecuaciones lineales con n incógnitas sobre uncuerpo K tenga solución es que la matriz del sistema y la matriz ampliada conla columna de términos independientes tengan el mismo rango r. Supuesto quela condición se cumple, la solución es única si el rango es igual al número deincógnitas. Si r < n se llaman incógnitas principales a r cualesquiera de lasincógnitas cuyas columnas en la matriz del sistema son linealmente independi-entes; entonces se pueden escoger arbitrariamente en K los valores de las incóg-nitas restantes, que se llaman incógnitas no principales, y con éstas se expresanlinealmente los valores de las incognitas principales que con ellos forman unasolución del sistema.

Definición 67 Se llaman sistemas homogéneos a los sistemas de ecuacioneslineales cuyos términos independientes son todos nulos. Matricialmente, un sis-tema homogéneo se expresa como

Ax = 0

Tales sistemas admiten obviamente la solución x1 = x2 = · · · = xn = 0 ytienen como conjunto de soluciones el núcleo de la aplicación lineal cuya matrizasociada es la matriz del sistema de ecuaciones.

Page 159: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.4. RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES 147

A los sistemas homogéneos podemos aplicar el teorema de Rouché-Frobenius.Como ejemplo, proponemos el siguiente ejemplo, muy frecuente en Geometría.

Definición 68 Ejemplo 93 Sea el sistema

a11x1 + a12x2 + · · ·+ a1nxn = 0a21x1 + a22x2 + · · ·+ a2nxn = 0

...an−11x1 + an−12x2 + · · ·+ an−1nxn = 0

y supongamos que rang A = n− 1. Se trata de encontrar todas sus soluciones.Solución: Por el teorema ???, supuesto que

detAn =

¯¯ a11 · · · a1n−1

.... . .

...an−11 · · · an−1n−1

¯¯ 6= 0

se cumple

λi =det (a1, ..., ai−1,b,ai+1, ..., an−1)

detAn= 0 (i = 1, ..., n− 1)

ya que b = 0, y

λ1j =det (a1, ..., aj−1,an,aj+1, ..., an−1)

detAn= (−1)n−j−1 detAj

detAn

siendo j = 1, ..., n−1 y Aj indica la submatriz que resulta de suprimir la columnaj a la matriz A del sistema. Por tanto,

x1 = −λ11xn = (−1)n−1 detA1detAn

λ

x2 = −λ12xn = (−1)n−2 detA2detAn

λ

...

xn−1 = −λ1n−1xn = (−1)detAn−1detAn

λ

xn = λ

con λ ∈ K, y las soluciones forman el subespacio vectorial generado por el vector

((−1)n−1 detA1detAn

, (−1)n−2 detA2detAn

, ...,−detAn−1detAn

, 1)

o bien,((−1)n−1 detA1, (−1)n−2 detA2, ...,−detAn−1,detAn)

observemos que dicho subespacio es de dimensión 1.

Page 160: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

148 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

5.5. Clasificación de los sistemas de ecuacioneslineales

Definición 69 Si un sistema tiene alguna solución se llama compatible, encaso contrario se llama incompatible. Si tiene una única solución se llamadeterminado y si tiene infinitas soluciónes se llama indeterminado.

Según el teorema de Rouché-Frobenius, podemos clasificar entonces los sis-temas de m ecuaciones lineales con n incógnitas sobre un cuerpo conmutativoK, como sigue:

1. No homogéneos

a) Compatible: rang A = rang (A|b) = r

1) Determinado: r = n; la solución se encuentra por la regla deCramer

2) Indeterminado: r < n; las soluciones se encuentran por la reglade Cramer una vez elegidas r incógnitas principales

b) Incompatible: rang A 6= rang (A|b)

2. Homogéneos: siempre son compatibles

a) Determinado: rang A = n; la solución es la trivial

b) Indeterminado: rang A = r < n; las soluciones se encuentran por laregla de Cramer una vez elegidas r incógnitas principales

Ejemplo 94 Discutir y resolver, si es posible, el siguiente sistema

x+ 2y − z + t+ u = 03x− y + t− u = 66x+ y + t+ u = 1

x− 2y + 2z − 2t = −5

Solución: En primer lugar calculemos el rango de A. Puesto que¯

¯ 1 2 −13 −1 06 1 0

¯¯ = −9 6= 0

y ¯¯ 1 2 −1 13 −1 0 16 1 0 11 −2 2 −2

¯¯ = 0 y

¯¯ 1 2 −1 13 −1 0 −16 1 0 11 −2 2 0

¯¯ = 0

Page 161: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.5. CLASIFICACIÓNDE LOS SISTEMAS DE ECUACIONES LINEALES149

se cumple que rang A = 3. Calculemos ahora el rango de la matriz ampliada(A|b). Puesto que ¯

¯ 1 2 −1 03 −1 0 66 1 0 11 −2 2 −5

¯¯ = 0

se cumple que rang (A|b) = 3. Por tanto, como rang A = rang (A|b) = 3 < 5,el sistema es compatible indeterminado. Elegimos como incógnitas principalesx, y, z ya que los vectores columna correspondientes a estas incógnitas son lin-ealmente independientes. Por tanto, las incógnitas t, u pueden tomar cualquiervalor real; supongamos que t = λ y u = µ. Entonces el sistema

x+ 2y − z = −λ− µ3x− y = 6− λ+ µ6x+ y = 1− λ− µ

tiene una sola solución para cualquier valor de λ, µ ∈ R. Aplicando la regla deCramer, se obtiene

x =

¯¯ −λ− µ 2 −16− λ+ µ −1 01− λ− µ 1 0

¯¯

−9 =7

9− 29λ

y =

¯¯ 1 −λ− µ −13 6− λ+ µ 06 1− λ− µ 0

¯¯

−9 = −113+1

3λ− µ

z =

¯¯ 1 2 −λ− µ3 −1 6− λ+ µ6 1 1− λ− µ

¯¯

4=59

4− 134λ+

9

t = λ

u = µ

Por tanto, las soluciones del sistema son

(x, y, z, t, u) = (7/9,−11/3, 59/4, 0, 0)+λ(−2/9, 1/3,−13/4, 1, 0)+µ(0,−1, 9/4, 0, 1)para todo λ, µ ∈ R, o bien,

x =7

9− 29t

y = −113+1

3t− u

z =59

4− 134t+

9

4u

t = t

u = u

Page 162: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

150 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

5.6. Método de GaussOtro método para resolver sistemas de ecuaciones lineales es el de reducción

o de Gauss-Jordan. Su justificación teórica está basada en unos razonamientosmuy simples. Sea f : E −→ F una aplicación lineal y sean u1, ...,un y v1, ...,vmbases de E y F respectivamente. Denotamos por A la matriz asociada a f enestas bases y por b el vector de F cuyas coordenadas son (b1, ..., bm). Queremosencontrar las antiimágenes x de b. Los cambios en la base de F dan lugar acambios en la matriz asociada y en las coordenadas de b, pero no afectan a lascoordenadas de x, que permanecen invariables. Por tanto, si A1 y b1 son la nuevamatriz asociada y las nuevas coordenadas de b, las soluciones del sistema A1x =b1 coinciden con las del sistema original Ax = b. Efectuando cambios en labase de F podemos conseguir un sistema equivalente con una matriz lo bastantesimple como para que el hecho de encontrar la solución general no impliqueningún cálculo. Además, los cambios que efectuaremos son únicamente de trestipos muy simples y se corresponden con las transformaciones elementales.

1. Permutación del orden de los vectores de la base de F. Naturalmente,entonces, las coordenadas de

f(ui) = a1iv1 + · · ·+ amivm (i = 1, ..., n)

y deb = b1v1 + · · ·+ bmvm

quedan permutadas, lo cual equivale a que en la matriz (A|b) las filasqueden permutadas o que las ecuaciones del sistema se intercambien.

2. Sustitución de un vector vj de la base de F por kvj , con k 6= 0. Entoncesf(ui) = a1iv1 + · · ·+ (aij k−1) k vj + · · ·+ amivm

b = b1v1 + · · ·+ (bj k−1) k vj + · · ·+ bmvm

Es decir, en la matriz (A|b) la fila j queda multiplicada por k−1 o que laecuación j queda multiplicada por k−1.

3. Sustitución de un vector vj de la base de F por vj + k vh, con h 6= j.Entonces

f(ui) = a1iv1 + · · ·+ aji(vj + k vh) + · · ·+ (ahi − aji k)vh + · · ·+ amivm

b = b1v1 + · · ·+ bj(vj + k vh) + · · ·+ (bh − bj k)vh + · · ·+ bmvm

Es decir, en la matriz (A|b), a la fila h se le resta la fila j multiplicada pork o lo que es lo mismo, a la ecuación h se le resta la ecuación j multiplicadapor k.

Page 163: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.6. MÉTODO DE GAUSS 151

Haciendo cambios del tipo 1, 2 y 3 y permutando, si es necesario, el orden delas incógnitas, lo que equivale a permutar el orden de las n primeras columnasde (A|b), obtenemos una matriz de la forma

1 0 · · · 0 c1r+1 · · · c1n0 1 · · · 0 c2r+1 · · · c2n......

. . ....

.... . .

...0 0 · · · 1 crr+1 · · · crn0 0 · · · 0 0 · · · 0......

. . ....

.... . .

...0 0 · · · 0 0 · · · 0

d1d2...drdr+1...dm

El sistema así obtenido es de la forma

x1 + c1r+1xr+1 + · · · + c1nxn = d1x2 + c2r+1xr+1 + · · · + c2nxn = d2

. . ....

......

xr + crr+1xr+1 + · · · + crnxn = dr0 = dr+1...

......

0 = dm

tiene, pues, las mismas soluciones que el original, salvo tal vez el orden de

las incógnitas. Por tanto, el sistema es compatible si y sólo si

dr+1 = · · · = dm = 0

y, en este caso, la solución general es

xi = di − cir+1xr+1 − · · ·− cinxn (i = 1, ..., r)xr+1 = xr+1...xn = xn

Observación 70 Los cambios en la matriz (A|b) se efectúan de la manerasiguiente: si la primera columna es toda 0, se pasa al lugar n. Si hay un elementono nulo, se permutan las filas de forma que quede en primer lugar. Con uncambio del tipo 2 se puede conseguir que este elemento pase a ser un 1 y concambios del tipo 3 se puede conseguir que el resto de la columna sea 0. Laprimera columna queda, así, en la forma deseada. Supongamos que tenemos hcolumnas en la forma deseada. Si en la columna h+1 los elementos de las filash + 1, ...,m son 0, la situamos en el lugar n. En caso contrario, colocamos unelemento no nulo en la fila h+ 1, permutando únicamente las filas h+ 1, ...,m.Con cambios del tipo 2 y 3 podemos conseguir que este elemento sea 1 y el restode la columna sea 0. Observemos que de esta forma las columnas anteriores novarían. El proceso puede continuar hasta obtener una matriz como la que hemosescrito más arriba.

Page 164: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

152 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

Notación 2 Una de las ventajas del método de Gauss es que se puede aplicarsimultáneamente a sistemas de ecuaciones con la misma matriz y diferentes tér-minos independientes. Sean, por ejemplo, Ax = b y Ax = c dos sistemas conmatriz A. Si efectuamos los cambios necesarios en la matriz (A|b|c), resolvere-mos al mismo tiempo los dos sistemas.

Ejemplo 95 Consideremos el sistema

x1 − 2x2 + 3x3 + 5x4 − 4x5 = b12x1 − 4x2 + 6x3 + 5x4 + 2x5 = b22x1 − 5x2 + 7x3 + 7x4 + 3x5 = b3−x1 + x2 − 2x3 − 3x4 + 5x5 = b4

y supongamos que nos interesan las soluciones cuando b es (2,−6,−7,−3) y(−3,−1, 1, 2).Solución: Enumeramos las columnas y las filas. Para facilitarnos la es-

critura, las operaciones con filas o columnas indicadas en cada paso se refierensiempre al paso inmediatamente anterior.

1.C1 C2 C3 C4 C5

F1 1 −2 3 5 −4 2 −3F2 2 −4 6 5 2 −6 −1F3 2 −5 7 7 3 −7 1F4 −1 1 −2 −3 5 −3 2

2.C1 C2 C3 C4 C5

F1 1 −2 3 5 −4 2 −3F2 − 2F1 0 0 0 −5 10 −10 5F3 − 2F1 0 −1 1 −3 11 −11 7F4 + F1 0 −1 1 2 1 −1 −1

3.C1 C2 C3 C4 C5

F1 1 −2 3 5 −4 2 −3F4 0 −1 1 2 1 −1 −1F3 0 −1 1 −3 11 −11 7F2 0 0 0 −5 10 −10 5

4.C1 C2 C3 C4 C5

F1 − 2F2 1 0 1 1 −6 4 −1−F4 0 1 −1 −2 −1 1 1

F3 − F2 0 0 0 −5 10 −10 8F2 0 0 0 −5 10 −10 5

Page 165: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.7. CÁLCULO DE LA MATRIZ INVERSA 153

5.C1 C2 C3 C4 C5

F1 1 0 1 1 −6 4 −1F2 0 1 −1 −2 −1 1 1F3 0 0 0 −5 10 −10 8

F4 − F3 0 0 0 0 0 0 −3observemos que la última fila nos dice que el segundo sistema es incompat-ible. En consecuencia, podemos eliminarla y también la última columna.

6.C1 C2 C4 C3 C5

F1 1 0 1 1 −6 4F2 0 1 −2 −1 −1 1

−F3/5 0 0 1 0 −2 2

7.C1 C2 C4 C3 C5

F1 − F3 1 0 0 1 −4 2F2 + 2F3 0 1 0 −1 −5 5

F3 0 0 1 0 −2 2

Por tanto, las soluciones del primer sistema se obtienen del siguiente sistemaequivalente

x1 + x3 − 4x5 = 2x2 − x3 − 5x5 = 5

x4 − 2x5 = 2x3 = x3x5 = x5

es decir,

x1 = 2− x3 + 4x5x2 = 5 + x3 + 5x5x3 = x3x4 = 2 + 2x5x5 = x5

5.7. Cálculo de la matriz inversaDada A ∈ Mn (K), se trata de encontrar, si existe, una matriz B = (bij)

que cumpla AB = In. Esto equivale a buscar las n columnas bi = (b1i, ..., bni)de B de forma que para cada i = 1, ..., n se cumpla

Abi = ei

donde ei = (0, ..., 1, ..., 0) es la columna i de In. En otras palabras, debemosresolver los siguientes n sistemas simultáneamente

Ax = ei (i = 1, ..., n)

Page 166: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

154 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

todos con la misma matriz A. Para hacerlo aplicaremos el método de Gauss.Consideremos la matriz (A|e1| · · · |en) y apliquemos las transformaciones delmétodo de Gauss. Observemos que (|e1| · · · |en) es precisamente la matriz iden-tidad. Por tanto, partimos de

(A|In)y llegaremos a una matriz del tipo (In|B), es decir, 1 · · · 0 b11 · · · b1n

.... . .

......

. . ....

0 · · · 1 bn1 · · · bnn

La solución del primer sistema es la primera columna de B, es decir, xi = bi1,i = 1, ..., n, etc. En resumen, resulta que la matriz (bij) que hemos obtenidoasí es precisamente la matriz inversa de A. Naturalmente, puede suceder que lamatriz A no se pueda transformar en la matriz identidad In. Entonces uno delos sistemas Ax = ei para un cierto 1 ≤ i ≤ n, resulta incompatible y A notiene matriz inversa.

Ejemplo 96 Hallar la inversa de la siguiente matriz

A =

1 1 10 1 11 0 1

Solución: Para facilitarnos la escritura, las operaciones con filas indicadas

en cada paso se refieren siempre al paso inmediatamente anterior. Así tenemos

1.F1 1 1 1 1 0 0F2 0 1 1 0 1 0F3 1 0 1 0 0 1

2.F1 1 1 1 1 0 0F2 0 1 1 0 1 0

F3 − F1 0 −1 0 −1 0 1

3.F1 1 1 1 1 0 0F2 0 1 1 0 1 0

F3 + F2 0 0 1 −1 1 1

4.F1 − F3 1 1 0 2 −1 −1F2 − F3 0 1 0 1 0 −1

F3 0 0 1 −1 1 1

Page 167: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.8. ESTUDIO DE LAS ECUACIONES AX = B 155

5.F1 − F2 1 0 0 1 −1 0

F2 0 1 0 1 0 −1F3 0 0 1 −1 1 1

Por tanto,

A−1 =

1 −1 01 0 −1−1 1 1

5.8. Estudio de las ecuaciones AX = B

1. Calculamos rang A y rang (A|B). Si son iguales, el sistema es compatibley por tanto tiene solución, y si no son iguales, el sistema es incompatible,es decir, no tiene solución.

2. Procedemos a efectuar transformaciones elementales en la matriz (A|B)hasta conseguir una nueva matriz de la forma (I|X), siendo I la matrizidentidad. Si esto es posible, entonces X es la única solución del sistema ypor tanto decimos que el sistema es compatible determinado. Ahora bien,puede ocurrir que al efectuar las transformaciones por filas no sea posiblellegar a la situación señalada antes. Sin embargo, reordenando columnas(o sea incógnitas) si es necesario, siempre será posible llegar a una matrizde la forma (I|T |Z), donde (I|T ) es la transformada de A y T es unamatriz de tantas columnas como grados de libertad (o sea incógnitas noprincipales) tenga el sistema AX = B, y Z es la transformada de B. Eneste último caso, el problema inicial se ha reducido a resolver el sistemaequivalente (I|T )X = Z. Descomponiendo la matriz de las incógnitas Xen dos submatrices o cajas X1 y X2 de órdenes tales que pueda efectuarsela multiplicación matricial, se tiene

(I|T )X = (I|T )µ

X1

X2

¶= IX1 + TX2 = X1 + TX2

Por tanto, el sistema inicial es equivalente al siguiente

X1 + TX2 = Z

es decir,X1 = Z − TX2

X2 = X2

¾Por tanto, la solución general viene dada por

X =

µX1

X2

¶=

µZ − TX2

X2

Page 168: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

156 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

en dondeX2 es la matriz de las incónitas no principales y por tanto puedentomar cualquier valor en K. En este caso, decimos que el sistema es com-patible indeterminado.

Observación 71 Cuando el sistema es de la forma XA = B, tenemos dosalternativas. La primera consiste en hacer lo mismo que antes, pero aplicandotransformaciones elementales por columnas en lugar de por filas. La segundaalternativa consiste en observar que el sistema XA = B es equivalente a AtXt =Bt y, en consecuencia, podemos resolver este último siguiendo las indicacionesexplicadas. Sin embargo, es importante no olvidar que la solución que se obtieneasí es Xt y, por tanto, para hallar X habrá que trasponer Xt.

Ejemplo 97 Discutir según los valores de α la compatibilidad de la ecuaciónXA = B, siendo

A =

α 1 11 α 11 1 α

y B =

µ1 α α2

1 1 1

¶Solución: Es claro que XA = B es equivalente a AtXt = Bt y por tanto,

discutiremos la compatibilidad de este último sistema. Así tenemos

¡At|Bt

¢=

α 1 1 1 11 α 1 α 11 1 α α2 1

Aplicando transformaciones elementale por filas, tenemos α 1 1 1 1

1 α 1 α 11 1 α α2 1

∼ 1 1 α α2 1

1 α 1 α 1α 1 1 1 1

F3F2F1 1 1 α α2 1

1 α 1 α 1α 1 1 1 1

∼ 1 1 α α2 10 α− 1 1− α α− α2 00 1− α 1− α2 1− α3 1− α

F1F2 − F1F3 − aF1 1 1 α α2 1

0 α− 1 1− α α− α2 00 1− α 1− α2 1− α3 1− α

∼ 1 1 α α2 10 α− 1 1− α α− α2 00 0 2− α− α2 1 + α− α2 − α3 1− α

FFF

Puesto que las transformaciones que hemos efectuado respetan el valor del de-terminante de At, tenemos

detAt = (α− 1)(2− α− α2) = −(α− 1)2(α+ 2)Por tanto, si α 6= 1 y α 6= −2, entonces rang At = 3 y por tanto se cumplerang At = rang (At|Bt) = 3. En este caso, el sistema es compatible determina-do. Si α = 1, tenemos

¡At|Bt

¢ ∼ 1 1 1 1 10 0 0 0 00 0 0 0 0

Page 169: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

5.8. ESTUDIO DE LAS ECUACIONES AX = B 157

y por tanto tenemos rang At = rang (At|Bt) = 1. En este caso, el sistema escompatible indeterminado. Si α = −2, tenemos

¡At|Bt

¢ ∼ 1 1 −2 4 10 −3 3 −6 00 0 0 3 −1

y por tanto tenemos rang At = 2 y rang (At|Bt) = 3. En este caso el sistema esincompatible, es decir, no tiene solución. Vamos ahora a encontrar las solucionesen los casos en los que el sistema es compatible.

1. Empecemos por el caso en que α = 1. Tenemos,

¡At|Bt

¢ ∼ 1 1 1 1 10 0 0 0 00 0 0 0 0

= (I1|T |Z)

siendo T =¡1 1

¢y Z =

¡1 1

¢. Por tanto,

¡1 1 1

¢µ X1

X2

¶=¡1 1

¢Sabiendo que Xt es de orden 3× 2, tomamos

X1 =¡a b

¢y X2 =

µc de f

¶y de este modo obtenemos

(1)X1 +¡1 1

¢X2 =

¡1 1

¢es decir,

(1)¡a b

¢=¡1 1

¢− ¡ 1 1¢µ c d

e f

¶Por tanto ¡

a b¢=¡1 1

¢− ¡ c+ e d+ f¢

La solución general de AtXt = Bt es

Xt =

a bc de f

=

1− c− e 1− d− fc de f

y por tanto

X =

µ1− c− e c e1− d− f d f

¶es la solución general del sistema AX = B.

Page 170: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

158 CAPÍTULO 5. SISTEMAS DE ECUACIONES LINEALES

2. Si α 6= 1 y α 6= −2, entonces tenemos

¡At|Bt

¢ ∼ 1 1 α α2 10 α− 1 1− α α− α2 00 0 2− α− α2 1 + α− α2 − α3 1− α

Observemos que 2 − α − α2 = −(α − 1)(α + 2) y que 1 + α − α2 − α3 =−(α− 1)(α+ 1)2, por tanto

¡At|Bt

¢ ∼ 1 1 α α2 10 1 −1 −α 0

0 0 1 (α+1)2

α+21

α+2

F11

α−1F2−1(α−1)(α+2)F3 1 1 α α2 1

0 1 −1 −α 0

0 0 1 (α+1)2

α+21

α+2

∼ 1 1 0 −α

α+22

α+2

0 1 0 1α+2

1α+2

0 0 1 (α+1)2

α+21

α+2

F1 − αF3F2 + F3F3 1 1 0 −α

α+22

α+2

0 1 0 1α+2

1α+2

0 0 1 (α+1)2

α+21

α+2

∼ 1 0 0 −α+1

α+21

α+2

0 1 0 1α+2

1α+2

0 0 1 (α+1)2

α+21

α+2

F1 − F2F2F3

Por tanto, obtenemos

¡At|Bt

¢ ∼ 1 0 0 −α+1

α+21

α+2

0 1 0 1α+2

1α+2

0 0 1 (α+1)2

α+21

α+2

= (I3|Xt)

y, en consecuencia, la solución es

X =1

α+ 2

µ −(α+ 1) 1 (α+ 1)2

1 1 1

Page 171: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 6

Diagonalización deendomorfismos

6.1. Vectores propios y valores propios. Polinomiocaracterístico

Definición 70 Sea f ∈ End (E). Un vector v ∈ E, v 6= 0, es un vector propiode f si

f (v) = kv, para algún k ∈ K.Diremos, entonces, que k es un valor propio de f .

Observación 72 Un vector v 6= 0 es vector propio de f de valor propio k siy sólo si f (v) − kv = 0, es decir, si y sólo si v ∈ ker (f − kI). Un elementok ∈ K es un valor propio de f si y sólo si ker (f − kI) 6= {0}.

Definición 71 Se llama multiplicidad del valor propio k a la dimensión deker (f − kI).

Ejemplo 98 Los vectores de ker f diferentes de 0 son vectores propios de valorpropio 0.

Ejemplo 99 Si f = kI (homotecia de razón k), todo v 6= 0 es un vector propiode f , y k es el único valor propio de f .

Ejercicio 1 Si todo v ∈ E, v 6= 0, es un vector propio de f , f es una homotecia.

Teorema 92 k ∈ K es valor propio de f si y sólo si det (f − kI) = 0.

Demostración: k es valor propio ⇐⇒ ker (f − kI) 6= {0} ⇐⇒ det (f − kI) =0

159

Page 172: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

160 CAPÍTULO 6. DIAGONALIZACIÓN DE ENDOMORFISMOS

Definición 72 Sea A =³aji

´la matriz de f en una cierta base e1, . . . , en de

E. Entonces, si k es un valor propio de f ,

det (f − kI) =

¯¯¯a11 − k a12 · · · a1na21 a22 − k · · · a2n...

.... . .

...an1 an2 · · · ann − k

¯¯¯ = 0

Esta expresión es una ecuación de grado n en la incógnita k, el miembro izquier-do de la cual es el valor en k de un polinomio pA (x), que denominaremos poli-nomio característico de A.

Teorema 93 Si A y B son las matrices asociadas a f en dos bases distintas,entonces pB (x) = pA (x).Demostración: Se cumple:

det (B − kI) = det (f − kI) = det (A− kI) ∀k ∈ K.

Es decir, pB (k) = pA (k) para todo k ∈ K. Si K tiene más de n elementos,resulta que pB (x) = pA (x).Si K tiene n elementos o menos, esta demostración no sirve, pero el resultado

continúa siendo cierto. Una manera de demostrarlo es considerar pA (x) comoun determinante con elementos en el anillo K [x] :

pA (x) = det (A− xI) =

¯¯¯a11 − x a12 · · · a1na21 a22 − x · · · a2n...

.... . .

...an1 an2 · · · ann − x

¯¯¯ .

La definición y la mayoría de las propiedades de los determinantes de matricescon elementos en un cuerpo K se pueden generalizar a matrices con elementos enK [x]. En particular, se cumple que el determinande de un producto de matriceses el producto de sus determinantes. Entonces, si A y B son matrices del mismoendomorfismo, B = P−1AP (donde P es una matriz invertible) y

det (B − xI) = det(P−1AP − xI) = det(P−1 (A− xI)P ) =

= detP−1 · det (A− xI) · detP = det (A− xI) .

Observación 73 El teorema anterior nos permite hablar del polinomio car-acterístico de f , pf (x).

Teorema 94 El polinomio característico de A es

pA (x) = (−1)n xn+(−1)n−1 (a11+· · ·+ann)xn−1+· · ·+(−1)r Ar xr+· · ·+detA,

Page 173: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

6.2. DIAGONALIZACIÓN DE ENDOMORFISMOS 161

donde Ar es la suma de los determinantes de los menores de orden n−r forma-dos por los elementos de A de (n− r) filas y (n− r) columnas correspondientesa los mismos índices: aji , i = i1, . . . , in−r, j = i1, . . . , in−r. Es decir, son losmenores de orden n− r que tienen la diagonal principal sobre la diagonal prin-cipal de A.Demostración: No efectuaremos el cálculo de los Ar, que es largo y pesado.Por otra parte, existen maneras más cómodas de hallarlos que las que podríamosdar con los conocimientos que tenemos ahora. Nos limitaremos a calcular elcoeficiente de xn−1 y el término independiente.De la definición de determinante resulta¯¯¯a11 − k a12 · · · a1na21 a22 − k · · · a2n...

.... . .

...an1 an2 · · · ann − k

¯¯¯ = (a

11 − k)(a22 − k) · · · (ann − k) + S,

donde S es una suma de productos en cada uno de los cuales hay a lo sumon− 2 elementos de la diagonal. Los términos de grado n y n− 1 en k son, portanto,

(−1)n kn + (−1)n−1 (a11 + · · ·+ ann) kn−1.

El término independiente de pA (x) es pA (0) = det (A− 0I) = detA.Corolario 35 Si A y B son dos matrices asociadas al mismo endomorfismo,es decir, tales que B = P−1AP con P invertible, entonces

a11 + · · ·+ ann = b11 + · · ·+ bnn.

Demostración: Del teorema anterior y de la invariancia del polinomio carac-terístico, se deduce que Ar = Br para todo r y, en particular,

a11 + · · ·+ ann = b11 + · · ·+ bnn.

Definición 73 La suma a11 + · · · + ann se llama la traza de A, tr A. Dadoque dos matrices equivalentes tienen la misma traza, tiene sentido referirse a latraza de f , tr f.

6.2. Diagonalización de endomorfismosSea f ∈ End (E). Si conseguimos formar una base de E con vectores propios

de f , la matriz de f tendrá una forma muy simple:k1 0 · · · 00 k2 · · · 0...

.... . .

...0 0 · · · kn

.

Page 174: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

162 CAPÍTULO 6. DIAGONALIZACIÓN DE ENDOMORFISMOS

Todos los elementos no situados sobre la diagonal serán 0 y k1, k2, . . . , knserán los valores propios de los vectores propios de la base.

Definición 74 Una matriz de la formak1 0 · · · 00 k2 · · · 0...

.... . .

...0 0 · · · kn

.

se llama una matriz diagonal.Diagonalizar un endomorfismo f quiere decir encontrar una base de

vectores propios de f ; diagonalizar una matriz A quiere decir encontrar unamatriz diagonal equivalente a A.Diremos que un endomorfismo f es diagonalizable si se puede encontrar

una base de vectores propios de f . Una matriz se puede diagonalizar si y sólo siel endomorfismo asociado es diagonalizable.

Observación 74 En la sección anterior hemos dado ya una manera de encon-trar los valores propios y los vectores propios: los valores propios son los cerosdel polinomio característico y ker (f − kI) es el conjunto de vectores propiosde valor propio k (más el 0). Sólo queda, pues, ver si hay n vectores propioslinealmente independientes.

Teorema 95 Vectores propios de valores propios diferentes son linealmente in-dependientes.Demostración: Sean v1, . . . ,vm vectores propios de valores propios distintosk1, . . . , km. Procederemos por inducción sobre m. Si m = 1, v1 6= 0 es lineal-mente independiente. En general, sea a1v1 + · · ·+ amvm = 0; entonces

0 = (f − k1I) (a1v1 + · · ·+ amvm) = a2 (k2 − k1)v2 + · · ·+ am (km − k1)vm.

Por hipótesis de inducción, v2, . . . ,vm son linealmente independientes, de dondese deduce que aj (kj − k1) = 0, j = 2, . . . ,m. Puesto que kj 6= k1 si j 6= 1, será

aj = 0 para j = 2, . . . ,m.

Entonces a1v1 = 0, de donde también a1 = 0.

Corolario 36 El número de valores propios diferentes es ≤ n. Si hay exacta-mente n valores propios diferentes, el endomorfismo es diagonalizable.

Ejemplo 100 Consideremos el endomorfismo f : R2 → R2 cuya matriz esµ35

45

45 − 35

¶en la base usual (1, 0) , (0, 1). Su polinomio característico es

x2 − 1 = (x− 1) (x+ 1) .

Page 175: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

6.2. DIAGONALIZACIÓN DE ENDOMORFISMOS 163

f tiene, por tanto, dos valores propios: +1 y −1. El subespacio de vectorespropios de valor propio +1 es ker (f − I). La matriz de (f − I) esµ −25 4

545 −85

¶,

de donde resulta que ker (f − I) = {(2y, y)} = h(2, 1)i. Análogamente se ve queker (f + I) = h(−1, 2)i es el subespacio de vectores propios de valor propio −1.Los vectores (2, 1) , (−1, 2) forman una base en la que la matriz de f esµ

1 00 −1

¶.

La imagen de un v ∈ E se puede encontrar geométricamente de la manerasiguiente: descompongamos v como suma de un vector v1 de h(2, 1)i y un vectorv2 de h(−1, 2)i: v = v1 + v2. Entonces f (v) = v1 − v2. Esto es una simetríade eje h(2, 1)i.Ejemplo 101 Consideremos ahora f : R2 −→ R2 con matrizµ

1 10 1

¶en la base usual (1, 0) , (0, 1). El polinomio característico es (1− x)2 y, por tanto,el único valor propio es 1. Si f diagonalizase, su matriz diagonal seríaµ

1 00 1

¶,

f sería la identidad y eso no es cierto. De hecho, el subespacio de vectorespropios tiene dimensión 1 : ker (f − I) = h(1, 0)i.Teorema 96 Si r es la multiplicidad del valor propio k, es decir, si r = dimker (f − kI),y s es la multiplicidad del cero k del polinomio característico, entonces r ≤ s.Demostración: Sea v1, . . . ,vr una base de ker (f − kI). Completémosla hastaobtener una base de E : v1, . . . ,vn. En esta base la matriz de f es de la forma

A =

k 0 · · · 0 a1r+1 · · · a1n

0 k · · · 0... · · · ...

......

. . ....

... · · · ...

0 0 · · · k... · · · ...

......

. . ....

... · · · ...0 0 · · · 0 anr+1 · · · ann

.

El polinomio característico es, pues, p (x) = (k − x)r · q (x), lo que demuesta el

enunciado.

Page 176: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

164 CAPÍTULO 6. DIAGONALIZACIÓN DE ENDOMORFISMOS

Supongamos ahora que f es diagonalizable y sea k1 · · · 0...

. . ....

0 · · · kn

su matriz diagonal (k1, . . . , kn no necesariamente distintos). El polinomio

característico esp (x) = (k1 − x) · · · (kn − x)

y se descompone, por tanto, en factores lineales. Si un valor propio ki apareces veces en la diagonal, la multiplicidad del cero ki de p (x) es s. Por otro lado,(f − kiI) tendrá una matriz diagonal con exactamente s ceros en la diagonal,de donde dimker (f − kiI) = s. Estos hechos caracterizan los endomorfismosdiagonalizables, como lo demuestra el siguiente teorema.

Teorema 97 (Teorema de diagonalización) Un endomorfismo f es diag-onalizable si y sólo si su polinomio característico se descompone en factoreslineales y la multiplicidad de cada uno de sus ceros coincide con su multiplici-dad como valor propio de f .Demostración: ⇒ ) Supongamos ahora que f es diagonalizable y sea k1 · · · 0

.... . .

...0 · · · kn

su matriz diagonal (k1, . . . , kn no necesariamente distintos). El polinomio car-acterístico es

p (x) = (k1 − x) · · · (kn − x)

y se descompone, por tanto, en factores lineales. Si un valor propio ki apareces veces en la diagonal, la multiplicidad del cero ki de p (x) es s. Por otro lado,(f − kiI) tendrá una matriz diagonal con exactamente s ceros en la diagonal,de donde dimker (f − kiI) = s.⇐) Demostremos ahora las condiciones del enunciado son suficientes para

que f sea diagonalizable. Sea

p (x) = (−1)n (x− k1)n1 · · · (x− kr)

nr , n1 + · · ·+ nr = n

el polinomio característico de f . Pongamos Eki = ker (f − kiI). Vamos a verque

E = Ek1 ⊕ · · ·⊕Ekr .

Una vez visto esto, podremos obtener una base de vectores propios tomando basesen Ek1 , . . . , Ekr . En esa base, la matriz de f será diagonal.Demostraremos, pues, que la expresión de los vectores de E como suma de

vectores de los subespacios Eki es única. En efecto,

v1 + · · ·+ vr = w1 + · · ·+wr

Page 177: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

6.2. DIAGONALIZACIÓN DE ENDOMORFISMOS 165

con vi,wi ∈ Eki , i = 1, . . . , r, implica

(v1 −w1) + · · ·+ (vr −wr) = 0.

Los vectores vi − wi son vectores propios de valores propios diferentes, o 0.Sabemos que son linealmente independientes, por lo que han de ser todos elloscero:

vi −wi = 0;

es decir, vi = wi, i = 1, . . . , r. La suma de los subespacios Eki es, pues, directay su dimensión es n1 + · · ·+ nr = n. Por tanto,

Ek1 ⊕ · · ·⊕Ekr = E.

Definición 75 Una matriz A =³aji

´se llama triangular superior si aji = 0

para i < j. Diremos que un endomorfismo es triangulable si, en una baseconveniente, su matriz es triangular.

Teorema 98 (Teorema de triangulación) Un endomorfismo es triangulablesi y sólo si su polinomio característico se descompone en factores de primergrado.Demostración: ⇒) Si el endomorfismo f tiene una matriz triangular

a11 a12 a13 · · · a1n0 a22 a23 · · · a2n0 0 a33 · · · a3n...

......

. . ....

0 0 0 · · · ann

,

su polinomio característico p (x) = (a11 − x)(a22 − x) · · · (ann − x) se descomponeen factores lineales.⇐) Probaremos el recíproco por inducción sobre n. Para n = 1, toda matriz

es triangular.Sea n ≥ 2 cualquiera. El polinomio característico tiene como mínimo una

raíz; hay pues, como mínimo, un valor propio. Sea v1 un vector propio, yv1,v2, . . . ,vn una base de E. La matriz de f en esta base es del tipo

k a12 · · · a1n0 a22 · · · a2n...

.... . .

...0 an2 · · · ann

.

Consideremos ahora la aplicación

g : hv2, . . . ,vni −→ hv2, . . . ,vni

Page 178: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

166 CAPÍTULO 6. DIAGONALIZACIÓN DE ENDOMORFISMOS

de matriz a22 · · · a2n...

. . ....

an2 · · · ann

.

Tenemos que det (f − xI) = (k − x) ·det (g − xI) y, por tanto, el polinomio car-acterístico de g, det (g − xI), se descompone también en factores de primer gra-do. Por hipótesis de inducción existe entonces una base u2, . . . ,un de hv2, . . . ,vnien la cual la matriz de g es triangular:

b22 b23 · · · b2n0 b33 · · · b3n...

.... . .

...0 0 · · · bnn

.

Ahora bien, f (vi) = a1iv1 + g (vi), i = 2, . . . , n. Por tanto, si uj =Pn

i=2 cijvi,

entonces

f (uj) =nXi=2

cijf (vi) =nXi=2

cij¡a1iv1 + g (vi)

¢=

ÃnXi=2

cija1i

!v1 + g (uj) ,

para j = 2, . . . , n. La matriz de f en la base v1,u2, . . . ,un se obtiene, pues,añadiendo a la matriz de g una primera columna (k, 0, ..., 0) y una primerafila

¡k, b12, ..., b

1n

¢, donde b1j =

Pni=2 c

ija1i , j ≥ 2. Es, por tanto, una matriz

triangular.

Corolario 37 Todo endomorfismo de un espacio vectorial sobre los complejoses triangulable.

Page 179: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 7

La forma reducida deJordan

7.1. Polinomio mínimoEl estudio de los vectores propios nos ha permitido simplificar la matriz

de un endomorfismo en muchos casos. Queda, sin embargo, sin resolver el casogeneral. Nuestros pasos se encaminan ahora hacia la obtención de unos teoremasde descomposición de E en suma directa de subespacios que permitan obtenerbases convenientes en las que se pueda expresar el endomorfismo. Observemosque una descomposición de ese tipo es la que nos ha permitido demostrar elteorema de diagonalización.

Definición 76 Consideremos las potencias de f : fr, r = 0, 1, 2, . . .

f0 = I, f1 = f, . . . , f r = f ◦ fr−1, . . .Si la dimensión de E es n, el espacio vectorial End (E) tiene dimensión n2, y laspotencias fr no pueden ser todas linealmente independientes. Las combinacioneslineales

a0I + a1f + · · ·+ asfs = 0

nos llevan a considerar el núcleo de la aplicación

Φf : K [x] −→ End (E)p (x) = a0 + a1x+ · · ·+ arx

r 7−→ p (f) = a0I + a1f + · · ·+ arfr

Se cumplen las siguiente propiedades:

Φf (p (x) + q (x)) = p (f) + q (f) = Φf (p (x)) +Φf (q (x)) .

Φf (p (x) · q (x)) = p (f) ◦ q (f) = Φf (p (x)) ◦ Φf (q (x)) .Φf (kp (x)) = kp (f) = kΦf (p (x)) .

167

Page 180: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

168 CAPÍTULO 7. LA FORMA REDUCIDA DE JORDAN

Φf es, pues, un morfismo de álgebras. De la conmutatividad del producto deK [x] se deduce que dos endomorfismos de la imagen siempre conmutan:

p (f) ◦ q (f) = q (f) ◦ p (f) .El núcleo de Φf es un ideal K [x] y, por tanto,

NucΦf = {p (x) ∈ K [x] | p (f) = 0} = (mf (x)) .

Los polinomios de NucΦf se llaman polinomios anuladores de f ; mf (x)se llama el polinomio minímo de f y está determinado salvo factores de K.En general se toma mf (x) mónico, es decir, con el coeficiente de grado máximoigual a 1.

Ejemplo 102 Si E = {0} y f es el único endomorfismo de {0}, entoncesNucΦf = K [x] = (a0), a0 6= 0. Recíprocamente, si el polinomio mínimode f es a0 ∈ K, a0 6= 0, entonces NucΦf = (a0) = K [x] y, en particular,0 = Φf (1) = IE. Esto implica que E = {0} .Ejemplo 103 Si E 6= {0} y f = 0, NucΦf = (x) .

Ejemplo 104 Si E 6= {0} y f = I, x − 1 ∈ NucΦf y mf (x) | (x− 1). Peropuesto que mf (x) no es constante, mf (x) = x− 1.Ejemplo 105 Si E 6= {0}, f = kI si y sólo si mf (x) = x− k.

Definición 77 Fijado un vector u ∈ E, consideremos ahora la aplicaciónΦu : K [x] → E

p (x) 7−→ p (f) (u) .

El núcleo de Φu es un ideal de K [x] :

NucΦu = {p (x) ∈ K [x] | p (f) (u) = 0} = (mu (x)) .

mu (x) se llama el polinomio mínimo de f en u o simplemente el polinomiomínimo de u (si no hay confusión respecto a qué f nos referimos); está deter-minado salvo factores de K y generalmente se toma mónico.

Teorema 99 Seamu (x) = a0 + a1 x+ · · ·+ as x

s

el polinomio mínimo de u. Entonces u, f (u) , . . . , fs−1 (u) son linealmente inde-pendientes y u, f (u) , . . . , fs−1 (u), f t (u) (t ≥ s) son linealmente dependientes.Demostración: Si u, f (u) , . . . , fs−1 (u) fuesen linealmente dependientes, habríaun polinomio p (x) de grado < s tal que p (f) (u) = 0. Esto contradice la defini-ción de mu (x).Si t = s, mu (f) (u) = a0u+ a1f (u) + · · ·+ asf

s (u) = 0 nos dice que estosvectores son linealmente dependientes. Para t > s, procederemos por inducción.Así, pues,

f t−1 (u) ∈ ­u, f (u) , . . . , fs−1 (u)® ,

Page 181: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

7.2. SUBESPACIOS INVARIANTES 169

de donde

f t (u) ∈ ­f (u) , f2 (u) , . . . , fs (u)® = ­u, f (u) , . . . , fs−1 (u)®y u, f (u) , . . . , fs−1 (u), f t (u) son linealmente dependientes.

7.2. Subespacios invariantes

Definición 78 Sea f ∈ End (E). Un subespacio F de E se llama invariantepor f si f (F) ⊂ F. En ese caso, f induce un endomorfismo de F

bf = f|F : F → Fv 7−→ f (v)

al que llamaremos restricción de f a F.

Teorema 100 m bf (x) divide a mf (x) .

Demostración: mf (f) = 0 ⇒ mf (f) (u) = 0 ∀u ∈ E ⇒ mf ( bf) (v) =mf (f) (v) = 0 ∀v ∈ F⇒ mf (x) ∈

³m bf (x)

´⇒ m bf (x) divide a mf (x) .

Corolario 38 Si dos subespacios F y G de E, invariantes por f , tienen poli-nomios mínimos primos entre sí, entonces F ∩G = {0}.Demostración: Claramente, F ∩ G es también invariante y, por el teoremaanterior, su polinomio mínimo es 1. En este caso, el espacio debe ser {0}.

Teorema 101 Para todo polinomio p (x) ∈ K [x] , Nuc p (f) e Im p (f) son sube-spacios invariantes por f .Demostración: Si u ∈ Nuc p (f) , p (f) (f (u)) = f (p (f) (u)) = f(0) = 0, dedonde f (u) ∈ Nuc p (f).Si u = p (f) (v) ∈ Im p (f), f (u) = f (p (f) (v)) = p (f) (f (v)), de donde

f (u) ∈ Im p (f) .

Teorema 102 (primer teorema de descomposición) Si el polinomio mín-imo de f ∈ End (E) es

mf (x) = m1 (x)n1 · · ·mr (x)

nr ,

donde m1 (x) , . . . ,mr (x) son factores irreducibles, el espacio E es suma directade subespacios invariantes

E = E1 ⊕ · · ·⊕Er,

de forma que el polinomio mínimo de la restricción de f a Ei es mi (x)ni .

Esta descomposición es única:

Ei = Nuc (mi (f)ni) , i = 1, . . . , r.

Page 182: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

170 CAPÍTULO 7. LA FORMA REDUCIDA DE JORDAN

Demostración: Supongamos que el polinomio mínimo de f,mf (x), se descom-pone en producto de dos factores primos entre sí:

mf (x) = p (x) · q (x) .Consideremos los subespacios invariantes Nuc p (f) y Nuc q (f). Los polinomiosp (x) y q (x) son anuladores de la restricción de f a estos subespacios. Por tanto,

Nuc p (f) ∩Nuc q (f) = {0}.Ahora bien, es fácil ver que Nuc p (f) ⊃ Im q (f) y que Nuc q (f) ⊃ Im p (f) .Comprobemos la primera inclusión: si u = q (f) (v) ∈ Im q (f), entonces p (f) (u) =p (f) q (f) (v) = mf (f) (v) = 0 y, por tanto, u ∈ Nuc p (f). Estas inclusionesindican que

n = dimNuc p (f) + dim Im p (f) ≤≤ dimNuc p (f) + dimNuc q (f) =

= dim (Nuc p (f)⊕Nuc q (f)) ≤ n.

Las dos inclusiones son, pues, igualdades y

E = Nuc p (f)⊕Nuc q (f) .

¿ Cuáles son los polinomios mínimos de la restricción de f a esos dos subespaciosinvariantes en que se descompone E? Ya hemos dicho antes que tienen que serdivisores de p (x) y de q (x) (estos polinomios son anuladores): sean p (x) yq (x) . Pero, entonces, p (x)·q (x) es un anulador de f : si u ∈ E, u = u1 + u2con u1 ∈ Nuc p (f) ,u2 ∈ Nuc q (f) y, entonces,

p (f) q (f) (u) = q (f) p (f) (u1) + p (f) q (f) (u2) = 0+ 0 = 0.

Por tanto, por un lado p (x)·q (x) ∈ (mf (x)) y por el otro divide a mf (x) =p (x) · q (x). Debe cumplirse, pues p (x)·q (x) = mf (x); es decir, p (x) = p (x)y q (x) = q (x) son los polinomios mínimos buscados. Naturalmente, si ahorap (x) (o q (x)) se descompone en factores primos, podemos descomponer Nuc p (f)(o Nuc q (f) ) en suma de subespacios invariantes y proceder así tantas veces co-mo podamos.Lo único que falta por demostrar es la unicidad de la descomposición. Supong-

amos, pues, que tenemos dada una descomposición en subespacios invariantes

E = E1 ⊕ · · ·⊕Er,

de la cual solamente sabemos que el polinomio mínimo de la restricción de fa Ei es mi (x)

ni , para i = 1, . . . , r. Esta última condición implica que Ei ⊂Nuc (mi (f)

ni) , de donde

n = dimE1 + · · ·+ dimEr ≤≤ dimNuc (m1 (f)

n1) + · · ·+ dimNuc (mr (f)nr) = n.

Page 183: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

7.2. SUBESPACIOS INVARIANTES 171

La desigualdad tiene que ser, pues, una igualdad y todas las inclusiones anteri-ores tienen que ser igualdades:

Ei = Nuc (mi (f)ni) , i = 1, . . . , r.

Observación 75 La descomposición de E en suma directa de subespacios in-variantes reduce el estudio del comportamiento de f al estudio de sus restric-ciones a cada uno de los subespacios. Si escribimos la matriz de f en una basede E formada por bases de cada uno de los subespacios, obtenemos

A1A2 0

. . .0 Ar

.

La matriz A esta formada por matrices A1, . . . , Ar con la diagonal sobre la de A,y 0 en el resto de posiciones. El estudio de A se reduce, pues, al de las matricesAi, que son precisamente las matrices de las restricciones de f a cada uno delos subespacios en que se descompone E.

Aplicaremos ahora el primer teorema de descomposición a varios ejemplosconcretos.

Ejemplo 106 Consideremos el endomorfismo f : R2 −→ R2 cuya matriz es

A =

µ35

45

45 −35

¶En la base (1, 0) , (0, 1). El estudio de las combinaciones lineales entre sus po-tencias An resulta aquí trivial. Tenemos A2 = I y, por tanto, x2 − 1 es unpolinomio anulador.Si mf (x) = x − 1, mf (f) = f − I = 0, de donde f = I. Si mf (x) =

x + 1,mf (f) = f + I = 0, de donde f = −I. Ninguno de los dos casos es elnuestro; por tanto,

mf (x) = (x− 1) (x+ 1) y E = E1 ⊕E2,

donde E1 = Nuc (f − I) = h(2, 1)i , E2 = Nuc (f + I) = h(1,−2)i . La restric-ción de f a E1 es IE1 ; la restricción a E2 es −IE2 . Es decir, E1 y E2 sonprecisamente los subespacios de los vectores propios de valores propios 1 y −1.En la base (2, 1) , (1,−2) la matriz resulta serµ

1 00 −1

¶.

Page 184: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

172 CAPÍTULO 7. LA FORMA REDUCIDA DE JORDAN

Ejemplo 107 Como generalización del ejemplo anterior, consideremos un en-domorfismo f tal que f2 = I (se llama una involución). mf (x) divide ax2 − 1 = (x− 1) (x+ 1) y, como en el ejemplo 1,si mf (x) = x− 1, f = I;si mf (x) = x+ 1, f = −I;si mf (x) = (x− 1) (x+ 1) , E = E1 ⊕ E2.El polinomio mínimo de la restricción de f a E1 es x− 1 y, por tanto, sobre

E1, f es IE1 . Análogamente, sobre E2, f es −IE2 . Si e1, . . . , er es una base deE1 y er+1, . . . , en una base de E2, la matriz de E en la base que resulta de launión de esas dos es

1. . . 0

1−1

0. . .

−1

Observemos que aquí también E1, E2 son los subespacios de vectores propios devalores propios 1,−1 y que la matriz obtenida es una matriz diagonal.Ejemplo 108 Modifiquemos el ejemplo anterior estudiando endomorfismos ftales que f2 = −I. El polinomio mínimo es ahora divisor de x2+1. Si el cuerposobre el que trabajamos es el complejo C, x2 + 1 = (x− i) (x+ i), y obtenemosuna situación muy similar a la del ejemplo 2. El polinomio mf (x) puede ser

mf (x) = x− i, de donde f = iI;mf (x) = x+ i, de donde f = −iI;mf (x) = (x− i) (x+ i) , de donde E = E1 ⊕ E2. La restricción de f a

E1 es iIE1 ; la de f a E2 es −iIE2 .Tomando bases de E1 y E2 obtenemos una base de E en la cual f tiene una

matriz diagonal:

i. . . 0

i−i

0. . .

−i

.

Si el cuerpo sobre el que trabajamos es el real R, x2+1 es irreducible: mf (x) =x2 + 1 y el primer teorema de descomposición no da ninguna descomposiciónpropia. Podría ser, no obstante, que consiguiéramos simplificar la matriz de ftomando vectores propios para formar una base, pero tampoco es posible. ¿ Porqué? Si k fuese un valor propio, el subespacio de vectores propios Nuc (f − kI) 6={0} sería invariante y con polinomio mínimo x− k. Esto implicaría que x− kdividiría a mf (x), lo cual no es cierto para ningún k. Este razonamiento queacabamos de hacer es general y nos da:

Page 185: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

7.2. SUBESPACIOS INVARIANTES 173

Teorema 103 Si k es un valor propio de f, entonces (x− k) | mf (x) .

Demostración: Si k es un valor propio, el subespacio de vectores propiosNuc (f − kI) 6= {0} es invariante y con polinomio mínimo x − k. Esto im-plica que x− k divide a mf (x).

Ejemplo 109 Sea f ∈ End (E) tal que f3 = I. El polinomio x3 − 1 es unanulador y mf (x) | x3 − 1. Si el cuerpo es C,

x3 − 1 = (x− 1)Ãx+

1 + i√3

2

!Ãx+

1− i√3

2

!.

Un estudio parecido al de los ejemplos anteriores nos da, para todos los posiblesmf (x), bases de E en las que la matriz de f es diagonal y los valores propiosson (

1,−1 + i

√3

2,−1− i

√3

2

)o un subconjunto de éste.Si el cuerpo es R, x3 − 1 = (x− 1) (x2 + x+ 1) y, por tanto, E = E1 ⊕ E2.

El polinomio mínimo de f sobre E1 es x− 1 y, por tanto, f sobre E1 es IE1 . Elpolinomio mínimo de f sobre E2 es x2 + x+ 1, irreducible. Sea e1, . . . , er unabase de E1, y er+1, . . . , en una base de E2. La matriz de f en la base e1, . . . , enes de la forma

1 0. . .

10 A2

.

Al igual que en el ejemplo anterior, ningún valor propio permite simplificar A2.

Ejemplo 110 Sea f : R2 −→ R2 con matriz

A =

µ1 10 1

¶en la base (1, 0) , (0, 1). Es fácil ver que mf (x) = (x− 1)2. El primer teorema dedescomposición no permite descomponer E en suma de subespacios invariantes.Hay, sin embargo, un subespacio invariante: el subespacio de vectores propiosde valor propio 1, h(1, 0)i . Si f tuviese una matriz diagonal, tendría que serµ

1 00 1

¶,

ya que 1 es el único valor propio de f . Pero f 6= I y no puede tener nunca lamatriz identidad.

Page 186: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

174 CAPÍTULO 7. LA FORMA REDUCIDA DE JORDAN

Ejemplo 111 Sea f ∈ End (E) con matriz

A =

1 0 00 −1 10 −1 1

en la base e1, e2, e3. Al calcular las potencias An se ve en seguida que f3 = f2

y, por tanto, x3 − x2 es un polinomio anulador. Así pues, mf (x) | x3 − x2 =x2 (x− 1) .Si mf (x) = x− 1, f = I, lo cual es falso.Si mf (x) = x, mf (f) = f = 0, lo cual es falso.Si mf (x) = x2, f2 = 0, lo cual es falso.Si mf (x) = (x− 1)x, f2 = f , lo cual es falso.Así pues, mf (x) = (x− 1)x2 y E = E1 ⊕ E2. Sobre E1, f es IE1 . Sobre

E2, f tiene polinomio mínimo x2. El cálculo de E1 y E2 nos da

E1 = Nuc (f − I) = he1i , E2 = Nucf2 = he2, e3i .

En la base e1, e2, e3, la matriz de f es la matriz de A dada. Y los valores propios,¿ cuáles son? Pues son 1 y 0; los subespacios de vectores propios respectivos sonhe1i y he2 + e3i . Si completamos estos dos vectores hasta obtener una base deE : e1, e2 + e3, e3, obtenemos la matriz de f 1 0 0

0 0 10 0 0

,

que es triangular.

Todos los ejemplos estudiados nos llevan de manera natural a la siguienteconclusión.

Teorema 104 (Teorema de diagonalización) Un endomorfismo es diago-nalizable si y sólo si su polinomio mínimo se descompone en factores lineales norepetidos.Demostración: ⇐) Supongamos que mf (x) = (x− a1) · · · (x− ar), dondeai 6= aj si i 6= j. Por el primer teorema de descomposición, E = E1 ⊕ · · · ⊕Er,donde

Ei = Nuc (f − aiI)

es el subespacio de vectores propios de valor propio ai. Existe, pues, una basede vectores propios de E constituida por bases de cada uno de los subespaciosE1, . . . , Er.⇒) Recíprocamente, supongamos ahora que E tiene una base formada por

vectores propios:

e11, . . . , e1n1 , e

21, . . . , e

2n2 , . . . , e

r1, . . . , e

rnr .

Page 187: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

7.3. EL TEOREMA DE CAYLEY-HAMILTON 175

Supongamos también que ai es el valor propio de ei1, . . . , eini . Entonces, si ponemos

Ei =­ei1, . . . , e

ini

®, tenemos

E = E1 ⊕ · · ·⊕Er

y el polinomio mínimo de Ei es (x− ai). Esto implica que

(x− a1) · · · (x− ar) | mf (x) .

Ahora bien, (x− a1) · · · (x− ar) es un anulador, ya que si u = u1 + · · · + urcon ui ∈ Ei, i = 1, . . . , r, se tiene

(f − a1I) · · · (f − arI) (u) =

= (f − a2I) · · · (f − arI) (f − a1I) (u1)++ (f − a1I) (f − a3I) · · · (f − arI) (f − a2I) (u2)++ · · ·+ (f − a1I) · · · (f − arI) (ur) == 0+ 0+ · · ·+ 0 = 0,

de donde mf (x) = (x− a1) · · · (x− ar) .

Por definición el polinomio mínimo tiene grado ≤ n2 = dimEnd (E) . Estacota es, sin embargo, muy grande cuando se trata de encontrar el polinomiomínimo de un endomorfismo.

Teorema 105 El grado del polinomio mínimo mf (x) es menor o igual que ladimensión del espacio E.Demostración: Sea mf (x) = m1 (x)

n1 · · ·mr (x)nr y E = E1 ⊕ · · · ⊕ Er la

descomposición dada por el primer teorema de descomposición. Es suficientever que gr mi (x)

ni ≤ dimEi para i = 1, . . . , r.Dado que mi (x)

ni es el polinomio mínimo de la restricción de f a Ei,hay un vi ∈ Ei tal que mi (f)

ni (vi) = 0 pero mi (f)ni−1 (vi) 6= 0. Entonces

el polinomio mínimo de vi es mi (x)ni y, por tanto, tendremos que los vec-

tores vi, f (vi) , . . . , fki−1 (vi) son linealmente independientes, donde ki = grmi (x)

ni . Por tanto, ki ≤ dimEi.

7.3. El teorema de Cayley-HamiltonTeorema 106 a es un cero de mf (x) si y sólo si es un cero de pf (x) .Demostración: Hemos visto anteriormente que los ceros del polinomio carac-terístico, pf (x), son también ceros del polinomio mínimo, mf (x) .Demostremos ahora el recíproco.Si a es un cero de mf (x) , entonces

mf (x) = (x− a) ·m1 (x) .

Existe un u ∈ E tal que m1 (f) (u) 6= 0 (en caso contrario, el polinomio mínimosería m1 (x)). Entonces el vector w = m1 (f) (u) tiene valor propio a:

(f − aI)w = (f − aI)m1 (f) (u) = mf (f) (u) = 0.

Por tanto, a es un cero de pf (x) .

Page 188: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

176 CAPÍTULO 7. LA FORMA REDUCIDA DE JORDAN

Teorema 107 Si el polinomio mínimo mf (x) y el polinomio característicopf (x) se descomponen en factores lineales, entonces pf (x) es un anulador def ; esto es, pf (f) = 0.Demostración: Sea mf (x) = (x− a1)

n1 · · · (x− ar)nr y sea E = E1⊕ · · ·⊕Er

la descomposición dada por el primer teorema de descomposición. La matriz def en una base formada por bases de los subespacios Ei es de la forma

A =

A1 0

A2. . .

0 Ar

.

Ahora bien, si pi (x) es el polinomio característico de Ai (es decir, de la restric-ción de f a Ei),

pf (x) = p1 (x) · p2 (x) · · · pr (x) .Cada pi (x) se descompone en factores lineales y sus ceros son ceros del poli-nomio mínimo de Ei, que es (x− ai)

ni . Por tanto, pi (x) = (x− ai)mi con

mi = dimEi. Sabemos que el grado del polinomio mínimo cumple ni ≤ mi, dedonde resulta que

mf (x) | pf (x) ,y pf (x) es un anulador.

Teorema 108 (Teorema de Cayley-Hamilton) El polinomio mínimo dividesiempre al polinomio característico.Demostración: Si A es una matriz n×n sobre un cuerpo K, podemos referirnosal polinomio característico de A, pA (x), y al polinomio mínimo de A, mA (x),tal como hemos hecho en el caso de endomorfismos. Así, pues, mA (x) seráun polinomio de grado mínimo del ideal {p (x) ∈ K [x] | p (A) = 0}, donde, sip (x) = a0 + a1x+ · · ·+ anx

n, ponemos

p (A) = a0I + a1A+ · · ·+ anAn.

Si pA (x) y mA (x) se descomponen en factores lineales, el teorema anteriorasegura que

pA (A) = 0.

Sea ahora A una matriz real. A es también una matriz compleja y su polinomiocaracterístico es el mismo: pA (x) = det (A− xI). Entonces, en C,

pA (A) = 0

y, naturalmente, esta igualdad vale tambien en R. Este razonamiento hecho paraR y C sirve para dos cuerpos cualesquiera K ⊂ K’ tales que todo polinomio deK’ se descomponga en factores lineales. Si un polinomio no tiene ceros en Kpodemos construir un cuerpo K1 ⊃ K donde este polinomio tenga un cero. Sepuede demostrar que la reiteración de este proceso conduce a un cuerpo K’⊃ Ken el cual todo polinomio se descompone en factores lineales. Este cuerpo K’ sellama la clausura algebraica de K.

Page 189: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

7.4. MATRIZ REDUCIDA (GENERAL) DE UN ENDOMORFISMO 177

Observación 76 El teorema de Cayley-Hamilton proporciona un método prác-tico para calcular el polinomio mínimo de un endomorfismo f dado: sea A lamatriz de f en una base cualquiera. Debemos calcular el polinomio caracterís-tico pA (x), descomponerlo en factores irreducibles y buscar el menor de susdivisores q (x) tales que q (f) = 0 (tal como se ha hecho en los ejemplos de lasección Subespacios invariantes). Éste será mf (x) .

7.4. Matriz reducida (general) de un endomor-fismo

El primer teorema de descomposición en subespacios invariantes permite re-ducir el estudio de un endomorfismo f al estudio de sus restricciones a ciertossubespacios invariantes Ei. En casos muy particulares, los espacios Ei son sube-spacios de vectores propios y podemos obtener una matriz de f diagonal. Vamosa estudiar ahora las restricciones de f a los subespacios Ei en el caso general.Concretamente, vamos a descomponer cada subespacio Ei en suma de subespa-cios invariantes sobre los cuales la actuación de f es muy clara: los subespaciosf -cíclicos.

Definición 79 Un subespacio F de E es f−cíclico si existe un vector u ∈ Etal que F =

­u, f (u) , f2 (u) , . . .

®.

Observación 77 Si F es f−cíclico, entonces es invariante por f y su dimen-sión es el grado del polinomio mínimo de f en u. Si este polinomio es

a0 + a1x+ · · ·+ as−1 xs−1 + xs,

entonces©u, f (u) , . . . , fs−1 (u)

ªes una base de F y, en esta base, la matriz de

la restricción de f es 0 0 · · · 0 −a01 0 · · · 0 −a10 1 · · · 0 −a2....... . .

......

0 0 · · · 1 −as−1

.

Teorema 109 (segundo teorema de descomposición) Si f ∈ End (E), Ees suma directa de subespacios f−cíclicos.Demostración: Por el primer teorema de descomposición, solamente hace faltaconsiderar el caso en que el polinomio mínimo de f es una potencia de unpolinomio primo: mf (x) = q (x)

s, q (x) primo.

Usaremos inducción sobre la dimensión de E. Si dimE = 1,E ya es f−cíclico.Supongamos cierto el teorema para todos los espacios de dimensión menor oigual que n− 1.

Page 190: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

178 CAPÍTULO 7. LA FORMA REDUCIDA DE JORDAN

Sea dimE = n. En la demostración de que gr mf (x) ≤ n probamos queexiste un u0 ∈ E tal que el polinomio mínimo de f en u0 es el mismo mf (x).Sea

F0 =­u0, f (u0) , f

2 (u0) , . . .®

y E = E/F0.

f induce un endomorfismo f de E

f : E −→ E

[v] 7−→ [f (v)] ,

bien definido, ya que la imagen por f de todos los representantes de [v] está en[f (v)] :

f ([v]) = f (v+ F0) = f (v) + f (F0) ⊂ f (v) + F0 = [f (v)] .

Ahora bien, dimE < n = dimE y, por hipótesis de inducción,

E = F 1 ⊕ · · ·⊕ F r

con F i f−cíclico, i = 1, . . . , r. Sea F i =­[ui’] , f [ui’] , . . .

®. Usaremos el sigu-

iente lema:

Lema 2 Existe un representante ui de [ui’] tal que, si denotamos por Fi elsubespacio hui, f (ui) , . . .i ,la proyección

πi : Fi −→ Fi

v 7−→ [v]

es un isomorfismo.

Supongamos demostrado, de momento, este lema. Entonces

E = F0 ⊕ F1 ⊕ · · ·⊕ Fr.

Comprobémoslo: si v ∈ E, [v] = [v1]+· · ·+[vr] con [vi] ∈ Fi. El lema nos aseguraentonces que podemos suponer que vi ∈ Fi. Así pues, E = F0+F1+· · ·+Fr. Paraver que la suma es directa, supongamos que v ∈ E se expresa de dos manerascomo suma de vectores de F0, . . . , Fr:

v = v0+v1+ · · ·+vr = w0+w1+ · · ·+wr, vi,wi ∈ Fi, i = 0, 1, . . . , r ⇒⇒ [v] = [v1] + · · ·+ [vr] = [w1] + · · ·+ [wr]

en E = F 1 ⊕ · · ·⊕ F r ⇒ [vi] = [wi] , i = 1, . . . , r. Pero, por el lema,

vi = wi, i = 1, . . . , r;

de donde también se deducev0 = w0.

Sólo queda demostrar el lema. Hagamos antes dos observaciones generales:

Page 191: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

7.4. MATRIZ REDUCIDA (GENERAL) DE UN ENDOMORFISMO 179

Si m (x) y m (x) son los polinomios mínimos de f y fen v y en [v] re-spectivamente, entonces m (x) | m (x), ya que

m(f) ([v]) = [m (f) (v)] = [0].

El polinomio mínimo de f en v divide al polinomio mínimo de f . Estoimplica, en nuestro caso, que aquel polinomio es una potencia de q (x) conexponente ≤ s.

Demostración del lema: Sean q (x)s’ y q (x)s los polinomios mínimos def y f en ui’ y [ui’], s ≤ s’≤ s. Entonces

q(f)s([ui’]) = [0] ⇒ q(f)s(ui’) ∈ F0 ⇒ q (f)s (ui’) = a (f) (u0) ⇒

⇒ q (f)s−s

a (f) (u0) = q (f)s(ui’) = 0 ⇒

⇒ q (x)s | q (x)s−s a (x) (ya que el polinomio mínimo de u0 es q (x)

s) ⇒

⇒ a (x) = q (x)sb (x) ⇒ q (f)

s(ui’) = a (f) (u0) = q (f)

sb (f) (u0) .

El vector ui = ui’− b (f) (u0) ∈ ui’+F0 = [ui’] tiene un polinomio mínimo quedivide a q (x)s, ya que

q (f)s (ui’− b (f) (u0)) = 0.

Por otra parte, el polinomio mínimo de ui ha de ser múltiplo del de [ui] = [ui’],que es q (x)s. Así, pues, el polinomio mínimo de ui es q (x)

s, el mismo que elde [ui]. Los vectores ui, f (ui) , . . . , f t−1 (ui), donde t = s · gr q (x), forman unabase de Fi. Las clases

[ui] , f ([ui]) , . . . , ft−1

([ui])

forman una base de F i, y por tanto la proyección πi : Fi −→ F i es un isomor-fismo. Esto acaba la demostración.

Observación 78 ¿ Hasta qué punto es única la descomposición obtenida en elsegundo teorema de descomposición? Supongamos que

E = G0 ⊕G1 ⊕ · · ·⊕Gm,

donde los subespacios Gi son f−cíclicos y el polinomio mínimo de la restric-ción de f a Gi es qi (x)

ni con qi (x) irreducible. Agrupemos los sumandos quecorrespondan a potencias del mismo qi (x). Por ejemplo, supongamos q0 (x) =q1 (x) = · · · = qs (x) y consideremos E0 = G0 ⊕ · · ·⊕Gs. El polinomio mínimode la restricción de f a E0 es q0 (x)

t, donde t = max (n0, . . . , ns) . Agrupandode esta forma los Gi, obtenemos una descomposición de E,

E = E0 ⊕E1 ⊕ · · ·⊕Er,

Page 192: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

180 CAPÍTULO 7. LA FORMA REDUCIDA DE JORDAN

que es precisamente la dada por el primer teorema de descomposición. Así pues,los subespacios Ei están unívocamente determinados y las diferentes descom-posiciones de E en subespacios f−cíclicos corresponderán a las diferentes de-scomposiciones de los subespacios Ei.Consideremos, pues, el caso en que el polinomio mínimo de f ∈ End (E) es

q (x)s, q (x) primo. La primera observación que debe hacerse es que no podemos

aspirar a demostrar la unicidad de la descomposición dada por el segundo teo-rema de descomposición. Lo veremos con un ejemplo.

Ejemplo 112 Si f = kIE, cualquier base u1, . . . ,un da lugar a una descom-posición en subespacios f−cíclicos:

E = hu1i⊕ · · ·⊕ huni .Vamos a ver, no obstante, que en todas las posibles descomposiciones de E

en subespacios f−cíclicos el número nt de subespacios a los que correspondeun cierto polinomio mínimo q (x)

t es el mismo. Recordemos que estamos con-siderando el caso en que el polinomio mínimo de f es q (x)s . Supongamos que

E = F0 ⊕ · · ·⊕ Fr

es una descomposición de E en suma de subespacios f−cíclicos Fi. Sea q (x)si

el polinomio mínimo de la restricción de f a Fi (si ≤ s) .Tenemos:

a. q (f)t (Fi) ⊂ Fi; de donde

q (f)t (E) = q (f)t (F0)⊕ · · ·⊕ q (f)t (Fr)

y, por tanto,

dim(q (f)t (E)) =rX

i=0

dim(q (f)t (Fi)).

b. Si si > t, el polinomio mínimo de la restricción de f a q (f)t (Fi) es q (x)si−t.

Entonces,

dim(q (f)t (Fi)) = (si − t) · gr q (x) = dimFi − t · gr q (x) .

c. Si si ≤ t, q (f)t(Fi) = {0}. Entonces,dim(q (f)t (Fi)) = 0 = dimFi − si · gr q (x) .

Sustituyendo las expresiones de (b) y (c) en el sumatorio de (a), obtenemos

dim(q (f)t (E)) = dimE−rX

i=0

mın (si, t) · gr q (x) .

Observemos ahora que

mın (si, t)−mın (si, t− 1)) =½0 si si ≤ t− 11 si si ≥ t,

Page 193: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

7.5. MATRIZ REDUCIDA DE JORDAN 181

de dondePr

i=0 (mın (si, t)−mın (si, t− 1)) = nt + nt+1 + · · ·+ ns. Denotemospor qt la dimensión de q (f)

t (E). Tenemos entonces

qt−1 − qt = (nt + nt+1 + · · ·+ ns) · gr q (x) ,

de donde resulta que

nt =1

gr q (x)(qt−1 − 2qt + qt+1) .

Esta expresión de nt no depende de la descomposición de E considerada.

Observación 79 Se cumple

{0} ⊂ Nuc q (f) ⊂ Nuc q (f)2 ⊂ · · · ⊂ Nuc q (f)s = Nuc q (f)s+1 = · · · = E.

Sea qt = dimNuc q (f)t= n− qt y designemos por

pt = dim³Nuc q (f)

t/Nuc q (f)

t−1´= qt − qt−1.

Resulta, entonces, que

nt =1

gr q (x)(pt − pt+1) .

7.5. Matriz reducida de Jordan

Teorema 110 Si el polinomio mínimo de f ∈ End (E) se descompone en fac-tores lineales, existe una base de E en la cual la matriz de f es de la forma

J =

J (a0, s0) 0

J (a1, s1)

. . .

0 J (ar, sr)

.

Demostración: Supongamos que el polinomio mínimo de f se descompone enfactores lineales. Sea

E = F0 ⊕ · · ·⊕ Fr

la descomposición dada por el segundo teorema de descomposición en subespa-cios f−cíclicos y (x− ai)

si el polinomio mínimo de la restricción de f a Fi.Escojamos para cada Fi un vector ui con polinomio mínimo (x− ai)

si . En-tonces,

ui, (f − aiI) (ui) , . . . , (f − aiI)si−1 (ui)

Page 194: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

182 CAPÍTULO 7. LA FORMA REDUCIDA DE JORDAN

son linealmente independientes. Ahora bien, dimFi = si y por tanto estos vec-tores forman una base. La matriz de la restricción de f a Fi en esta base es lasiguiente matriz de si filas:

J (ai, si) =

ai 0 · · · 0 01 ai · · · 0 0

0 1. . . 0 0

......

. . .. . .

......

0 0 · · · 1 ai 00 0 · · · 1 ai

.

Definición 80 La matriz J del teorema anterior se llama la matriz reducidade Jordan de f .

Observación 80 Observemos que los elementos ai que aparecen en la diagonalde la matriz canónica de Jordan son los valores propios de f (posiblementerepetidos).

Para obtener una base de E en la cual la matriz de f sea la matriz canónicade Jordan procederemos de la siguiente forma.Sean

p (x) = (x− λ1)α1 · · · (x− λr)

αr

ym (x) = (x− λ1)

s1 · · · (x− λr)sr

los polinomios característico y mínimo de f . Recordemos que α1+ · · ·+αr =n = dimE y si ≤ αi ∀i. Los enteros si están caracterizados por el hecho desatisfacer

{0} ⊂ Nuc (f − λiI) ⊂ Nuc (f − λiI)2 ⊂

⊂ · · · ⊂ Nuc (f − λiI)si−1 ( Nuc (f − λiI)

si

yNuc (f − λi)

si = Nuc (f − λi)t= Ei, ∀t ≥ si.

Además,E = E1 ⊕ · · ·⊕Er.

La base que buscamos es unión de bases convenientes de los subespaciosinvariantes Ei. Restringiéndonos a estos espacios, podemos suponer que el poli-nomio característico de f ∈ End (E) es (x− λ)n y el polinomio mínimo (x− λ)s , s ≤n. Para cualquier u ∈ E, designaremos (f − λI) (u) por q (u). Consideremos elsiguiente recuadro de vectores:

Page 195: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

7.5. MATRIZ REDUCIDA DE JORDAN 183

E = Nuc (f − λI)s u11 · · · u1k1Nuc (f − λI)s−1 q(u11) · · · q(u1k1) u21 · · · u2k2

· · · · · · · · · · · · · · · · · · · · ·Nuc (f − λI) qs−1(u11) · · · qs−1(u1k1) qs−2(u21) · · · qs−2(u2k2) · · · us1 · · · usks

u11, . . . ,u1k1 determinan clases que forman una base deNuc (f − λI)s /Nuc (f − λI)s−1.Es fácil ver que u11, . . . ,u1k1 son linealmente independientes y que q (u11) , . . . , q (u1k1) ∈Nuc (f − λI)s−1 determinan clases linealmente independientes enNuc (f − λI)s−1 /Nuc (f − λI)s−2.Los vectores u21, . . . ,u2k2 son vectores representantes de clases que, juntamentecon las anteriores, forman una base deNuc (f − λI)

s−1/Nuc (f − λI)

s−2. Repi-tamos ahora este proceso hasta obtener una base de Nuc (f − λI) formada porlos vectores situados en la última fila del recuadro.Tenemos entonces:

i. El conjunto de todos los vectores que aparecen en el recuadro forman unabase de E.

ii. El número de columnas es la multiplicidad del valor propio λ.

iii. El número de filas es el exponente del polinomio mínimo.

iv. El número de vectores en cada fila es

dim (Nuc(f − λI)t /Nuc (f − λI)t−1) = qt − qt−1 = pt.

v. El número de matrices J (λ, t) que aparecen en la matriz canónica de Jordande f es nt = pt−pt+1, que es la diferencia de vectores en filas consecutivas.

vi. Cada columna es la base de un subespacio f−cíclico de la descomposiciónde E.

Observación 81 nS ≥ 1 siempre, ya que ps+1 ≥ 1. Esto significa que siempreaparece al menos una matriz J (λ, s) de la máxima dimensión.

Ejemplo 113 Consideremos un endomorfismo f ∈ End (E) con matriz1 −1 −1 −1 −11 3 1 1 10 0 2 0 00 0 0 1 −10 0 0 1 3

.

Su polinomio característico es (2− x)5. El rango de (f − 2I) es 2 y, por tanto,dimNuc (f − 2I) = 3. Además,

(f − 2I)2 = 0

Page 196: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

184 CAPÍTULO 7. LA FORMA REDUCIDA DE JORDAN

y el polinomio mínimo de f es (x− 2)2. El recuadro considerado anteriormentetiene, en este caso, dos filas y tres elementos en la fila inferior:

u11 u12q(u11) q(u12) u2

Podemos tomar u11 = (1, 0, 0, 0, 0) ,u12 = (0, 0, 0, 1, 0). Entonces,

q (u11) = (f − 2I) (u11) = (−1, 1, 0, 0, 0)q (u12) = (f − 2I) (u12) = (−1, 1, 0,−1, 1)

son dos vectores propios que, juntamente con u2 = (0,−1, 1, 0, 0) , forman unabase de vectores propios. En la base

u11, q (u11) ,u12, q (u12) ,u2,

la matriz de f es 2 0 0 0 01 2 0 0 00 0 2 0 00 0 1 2 00 0 0 0 2

.

Observación 82 El problema de encontrar la matriz canónica de Jordan deun endomorfismo f dado queda, pues, resuelto, si el polinomio mínimo de f sedescompone en factores lineales:

m (x) = (x− λ1)s1 · · · (x− λr)

sr .

Solamente nos hace falta conocer para cada valor propio λi los números nt corre-spondientes (1 ≤ t ≤ s1), los cuales nos indican cuántos subespacios f−cíclicosde dimensión t aparecen (submatrices con el valor propio λi en la diagonal y unosdebajo de ella). En particular, si si = 1, el subespacio invariante correspondi-ente es un subespacio de vectores propios. El endomorfismo es diagonalizable siy sólo si s1 = · · · = sr = 1.

Page 197: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 8

Formas bilineales simétricasy formas cuadráticas

En la unidad de Determinantes se dio la definición y primeras propiedadesdel concepto de n−forma lineal sobre un espacio vectorial. Aquí estudiaremoslas formas bilineales y las formas cuadráticas sobre un espacio vectorial E sobreun cuerpo conmutativo K.

8.1. Definición y primeras propiedadesDefinición 81 Una forma bilineal sobre E es una aplicación f : E×E → Ktal que verifica las dos condiciones siguientes:

1. Para todo y ∈ E, la aplicación (parcial) fy de E en K definida por

fy(x) = f(x,y)

es lineal

2. Para todo x ∈ E, la aplicación (parcial) fx de E en K definida por

fx(y) = f(x,y)

es lineal

Teorema 111 Dada una base e1, ..., en de E, a toda forma bilineal f sobre Ese puede asociar una matriz cuadrada A deMn(K) definida por f(ei, ej) = aijpara todo 1 ≤ i, j ≤ n. Además, la aplicación de L(E2,K) en Mn(K) definidapor f 7−→ A es un isomorfismo de espacios vectoriales. Si X y Y representanlas matrices columna de las coordenadas de los vectores x e y respecto de la basee1, ..., en, entonces se cumple

f(x,y) = XtAY = Y tAtX

185

Page 198: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

186CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Demostración: Sea e1, ..., en una base de E y los vectores

x =nXi=1

xiei y y =nXj=1

yjej

Si f es una forma bilineal sobre E, entonces por definición se cumple

f(x,y) = f(nXi=1

xiei,nXj=1

yjej)

=Xi,j

xiyjf(ei, ej)

es decir, la forma quedará definida cuando se conozcan las imágenes f(ei, ej).Si designamos estas imágenes como aij, entonces tenemos

f(x,y) =Xi,j

aij xiyj

Esta ecuación puede escribirse matricialmente como sigue

f(x,y) = XtAY

donde

X =

x1...xn

, A =

a11 · · · a1n...

. . ....

an1 · · · ann

, Y =

y1...yn

es decir, hemos considerado los vectores x e y como matrices columna que in-dicamos respectivamente por X y Y . Recíprocamente, utilizando la misma no-tación anterior, dada una matriz cuadrada A de Mn(K) y una base e1, ..., ende E. La aplicación f : E× E → K definida como sigue

f(x,y) = XtAY

es una forma bilineal sobre E. Como consecuencia inmediata de lo que acabamosde ver, la aplicación de L(E2,K) en Mn(K) definida por f 7−→ A es unaaplicación biyectiva; además se ve enseguida que es un isomorfismo de espaciosvectoriales. Es claro que f(x,y) es una escalar y, por tanto, independiente dela trasposición, es decir, se cumple

f(x,y) = Y tAtX

Esto equivale a caracterizar la forma bilineal por una nueva matriz At.

Definición 82 Dada una forma bilineal f sobre E. Se llama matriz de laforma bilineal f referida a la base e1, ..., en a la matriz A = (aij) deMn(K) tal que

f(ei, ej) = aij

para todo 1 ≤ i, j ≤ n.

Page 199: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.1. DEFINICIÓN Y PRIMERAS PROPIEDADES 187

Teorema 112 Dos matrices A,A0 ∈ Mn(K) asociadas a una misma formabilineal f sobre E son congruentes.Demostración: Recordemos que dos matrices cuadradas A,B ∈ Mn(K) sellaman congruentes cuando existe una matriz inversible P ∈Mn(K) tal que

B = P tAP

Si P es la matriz de cambio de base en E, sabemos que las nuevas matricescolumna de los vectores x e y de E son X 0 y Y 0 tales que

X = PX 0 y Y = PY 0

De aquí, se deduce que

f(x,y) = XtAY

= (PX 0)tA(PY 0)= (X 0)t(P tAP )Y 0

es decir, la matriz asociada a la forma en la nueva base es, por tanto,

A0 = P tAP

Por consiguiente, si A,A0 son dos matrices asociadas a f , entonces son congru-entes.

Ejemplo 114 Una aplicación bilineal de R2 en R está definida por: f(e1, e1) =1, f(e1, e2) = 1, f(e2, e1) = −1 y f(e2, e2) = 3. Determinar su matriz. Calcularel valor de f(x,y) siendo x = 2e1−3e2,y = −e1+2e2 y compárese con f(y,x).Determinar la nueva matriz de f en la base u1 = (1, 1) y u2 = (−1, 1).Solución: Sabemos que la matriz A asociada a f en la base e1, e2 viene

dada porf(ei, ej) = aij

Por tanto,

A =

µ1 1−1 3

¶Puesto que x = (2,−3) e y = (−1, 2), se tiene

f(x,y) =

µ2−3

¶tµ1 1−1 3

¶µ −12

¶=

¡2 −3 ¢µ 1

7

¶= −19

Por otra parte, tenemos

f(y,x) =

µ −12

¶tµ1 1−1 3

¶µ2−3

¶=

¡ −1 2¢µ −1−11

¶= −21

Page 200: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

188CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Por tanto, f(x,y) 6= f(y,x). La matriz de cambio de base es

P =

µ1 −11 1

¶Por tanto, la nueva matriz asociada a f en la nueva base es

A0 = P tAP

=

µ1 −11 1

¶tµ1 1−1 3

¶µ1 −11 1

¶=

µ1 1−1 1

¶µ2 02 4

¶=

µ4 40 4

Ejemplo 115 Sea la aplicación f de R2 en R definida por

f(x,y) = 2x1y1 + x1y2 − x2y1 − 3x2y2siendo x = (x1, x2) e y = (y1, y2) en la base canónica de R2. Hallar la nuevaexpresión de f cuando se toma la base u1 = (2, 1) y u2 = (1, 1).Solución: Si e1, e2 es la base canónica de R2, entonces se cumple: f(e1, e1) =

2, f(e1, e2) = 1, f(e2, e1) = −1 y f(e2, e2) = −3. Por tanto, la matriz de f enla base canónica es

A =

µ2 1−1 −3

¶La matriz de cambio viene dada por

P =

µ2 11 1

¶Por tanto, la nueva matriz asociada a f es

A0 = P tAP

=

µ2 11 1

¶tµ2 1−1 −3

¶µ2 11 1

¶=

µ2 11 1

¶µ5 3−5 −4

¶=

µ5 20 −1

¶De este modo, la nueva expresión de f en la nueva base es

f(x0,y0) =

µx01x02

¶tµ5 20 −1

¶µy01y02

¶=

¡x01 x02

¢µ 5y01 + 2y02

−y02

¶= 5x01y

01 + 2x

01y02 − x02y

02

Page 201: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.1. DEFINICIÓN Y PRIMERAS PROPIEDADES 189

Definición 83 Una forma bilineal f sobre E se llama simétrica si

f(x,y) = f(y,x)

para todo (x,y) ∈ E× E.Teorema 113 Una forma bilineal f es simétrica si su matriz asociada A esuna matriz simétrica.Demostración: Si f es simétrica, entonces

aij = f(ei, ej)

= f(ej , ei)

= aji

luego A es una matriz simétrica. Si A es simétrica, entonces

f(x,y) = XtAY

= XtAtY

= Y tAX

= f(y,x)

Sea f una forma bilineal sobre un espacio vectorial E sobre K. Para todoy ∈ E, la función fy definida por

fy(x) = f(x,y)

es una forma lineal sobre E. Por consiguiente, f define una aplicación ϕ de Een su dual E∗ por

ϕ(y) = fy

Teorema 114 Sea f una forma bilineal sobre un espacio vectorial E sobre K.La aplicación ϕ : E → E∗ definida por

ϕ(y) = fy

es lineal.Demostración: Cualesquiera que sean x,y, z ∈ E se cumple

fy+z(x) = f(x,y+ z)

= f(x,y) + f(x, z)

= fy(x) + fz(x)

y, por tanto,fy+z = fy + fz

Page 202: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

190CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

o equivalentemente,ϕ(y+ z) = ϕ(y) + ϕ(z)

Por otra parte, se tiene

fλy(x) = f(x, λy)

= λf(x,y)

y, por tanto,fλy = λfy

o de forma equivalente,ϕ(λy) = λϕ(y)

cualesquiera que sean λ ∈ K y y ∈ E.Observación 83 Se definiría igualmente fx, que es también un elemento deldual E∗ de E. Designemos por ψ la aplicación de E en E∗ definida por

ψ(x) = fx

Del mismo modo que antes, ψ es lineal.

Teorema 115 Si e1, ..., en es una base de E y e∗1, ..., e∗n es una base de E∗, dualde la dada, entonces la matriz asociada a la forma bilineal f respecto a la base(ei) coincide con la matriz asociada a ϕ respecto a las bases (ei) y (e∗i ).Demostración: Designamos por A = (aij) la matriz cuadrada de orden nasociada a la forma bilineal f sobre E. Entonces,

f(ei, ej) = aij

para 1 ≤ i, j ≤ n. Designamos por B = (bij) la matriz cuadrada de orden nasociada a la aplicación ϕ en las bases (ei) y su dual (e∗i ). Entonces,

ϕ(ei) = fei =nX

k=1

bike∗k

para i = 1, ..., n. De aquí, obtenemos

aij = f(ei, ej)

= fei(ej)

=

ÃnX

k=1

bike∗k

!(ej)

=nX

k=1

bike∗k(ej)

=nX

k=1

bikδkj

= bij

Por tanto, A = B.

Page 203: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.1. DEFINICIÓN Y PRIMERAS PROPIEDADES 191

Corolario 39 Si f es una forma bilineal simétrica sobre E, las dos aplicacioneslineales ϕ y ψ de E en E∗, definidas por ϕ(y) = fy y ψ(x) = fx, donde fx y fyson las aplicaciones parciales asociadas a f , son idénticas.Demostración: Es inmediato ya que para todo x ∈ E se tiene

[ϕ(y)] (x) = f(x,y)

= f(y,x)

= [ψ(y)] (x)

y, por tanto, ϕ(y) = ψ(y) para todo y ∈ E. Por consiguiente, ϕ = ψ.

Definición 84 Se llama núcleo de una forma bilineal simétrica f el núcleo deϕ, es decir, está constituido por los elementos y ∈ E tales que

ϕ(y) = fy = 0

o equivalentemente,fy(x) = f(x,y) = 0

para todo x ∈ E. Además, siendo f simétrica, está igualmente constituido porlos elementos x ∈ E tales que

ϕ(x) = fx = 0

o equivalentemente,fx(y) = f(x,y) = 0

para todo y ∈ E.Observación 84 En general, el subconjunto

A = {(x,y) ∈ E× E : f(x,y) = 0}no es un subespacio vectorial de E×E y, en consecuencia, el núcleo de f no esA. Esto se debe a que f es bilineal y no lineal.

Definición 85 Se dice que la forma bilineal simétrica f es no degenerada siy sólo si ϕ es inyectiva, es decir, si y sólo si ker f = kerϕ = {0}. Si ker f =kerϕ 6= {0} se dice que f es degenerada. Si E es de dimensión finita, se llamarango de f al rango de ϕ, es decir, rang f = dim Imϕ.

Teorema 116 Sea f una forma bilineal simétrica sobre un espacio vectorial Ede dimensión n y A = (aij) la matriz asociada a f respecto a una base de E,entonces las propiedades siguientes son equivalentes:

1. f es no degenerada sobre E

2. f(x,y) = 0 para todo x ∈ E, implica que y = 03. f(x,y) = 0 para todo y ∈ E, implica que x = 0

Page 204: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

192CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

4. La aplicación ϕ de E en E∗, asociada a f , es un isomorfismo de espaciosvectoriales

5. detA 6= 0

Demostración: (1) =⇒ (2) Puesto que f es no degenarada, se tiene ker f ={0}. Por tanto, si f(x,y) = 0 para todo x ∈ E, entonces y ∈ ker f y, enconsecuencia, y = 0.(2) =⇒ (3) Puesto que f es simétrica, la prueba es inmediata.(3) =⇒ (1) Si x ∈ ker f , entonces f(x,y) = 0 para todo y ∈ E. De aquí,

por (3), implica que x = 0 y, en consecuencia, f es no degenerada.(1) =⇒ (4) Si f es no degenerada, entonces ϕ es inyectiva y, en consecuen-

cia, ϕ es biyectiva, ya que E es de dimensión finita y dimE = dimE∗ = n. porqué? Por tanto, ϕ es un isomorfismo ya que sabemos que ϕ es una aplicaciónlineal.(4) =⇒ (5) Si ϕ es biyectiva, entonces rang f = dim Imϕ = n y, en conse-

cuencia, detA 6= 0.(5) =⇒ (1) Si detA 6= 0, entonces rang f = dim Imϕ = n y, por tanto,

dimker f = 0 y, en consecuencia, f es no degenerada.

Sea E un espacio vectorial sobre un cuerpo K de característica diferente de2.

Definición 86 Sea f una forma bilineal sobre E, se llama forma cuadráticaasociada a f la aplicación q de E en K definida por

q(x) = f(x,x)

para todo x ∈ E.

Observación 85 Sea e1, ..., en una base de E y el vector

x =nXi=1

xiei

entonces,

q(x) = f(x,x)

= f(Xi

xiei,Xi

xiei)

=Xi,j

aijxixj

= XtAX

donde f(ei, ej) = aij, es decir, si consideramos q como una aplicación de Kn

en K, q se expresa como un polinomio homogéneo de segundo grado.

Page 205: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.1. DEFINICIÓN Y PRIMERAS PROPIEDADES 193

Teorema 117 El conjunto Q(E) de las formas cuadráticas definidas sobre E esun espacio vectorial sobre K, provisto de la adición y de la multiplicación porun escalar.Demostración: Es una simple comprobación y se deja al lector.

Teorema 118 Supongamos que K es un cuerpo de característica distinta de2. La aplicación que a toda forma bilineal simétrica f sobre E asocia la formacuadrática q definida por

q(x) = f(x,x)

para x ∈ E, es biyectiva. Además, la forma bilineal simétrica f , así asociada aq, es tal que

f(x,y) =1

2[q(x+ y)− q(x)− q(y)]

para todo (x,y) ∈ E× E.Demostración: Es claro que por definición la aplicación es exhaustiva. Veamosa continuación que también es inyectiva. Como f es simétrica, tenemos

q(x+ y) = f(x+ y,x+ y)

= f(x,x) + f(x,y) + f(y,x) + f(y,y)

= q(x) + q(y) + 2f(x,y)

de donde obtenemos

f(x,y) =1

2[q(x+ y)− q(x)− q(y)]

Esta fórmula muestra también que si la misma forma cuadrática q está asoci-ada a dos formas bilineales simétricas f y g, entonces f = g y, por tanto, laaplicación es inyectiva.

Observación 86 1. En general, la aplicación establecida en el teorema noes inyectiva ya que si h es una forma bilineal alternada no nula, entoncesse tiene

f(x,x) = q(x)

y

(f + h)(x,x) = f(x,x) + h(x,x)

= f(x,x)

= q(x)

Por lo tanto, las dos formas bilineales distintas f y f + h están asociadasa la misma forma cuadrática q.

2. El teorema muestra que el estudio de las formas bilineales simétricas esequivalente, en cuerpos de característica distinta de 2, al de las formascuadráticas.

Page 206: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

194CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Definición 87 Se dice que la forma bilineal simétrica f es la polar de la formacuadrática q cuando

f(x,y) =1

2[q(x+ y)− q(x)− q(y)]

para todo x,y ∈ E.

Corolario 40 Si q es la forma cuadrática asociada a la forma bilineal simétricaf sobre E, las relaciones q = 0 y f = 0 son equivalentes.Demostración: Es inmediato a partir de las fórmulas q(x) = f(x,x) y

f(x,y) =1

2[q(x+ y)− q(x)− q(y)]

para todo x,y ∈ E.

Corolario 41 Si q es la forma cuadrática asociada a la forma bilineal simétri-ca f , para todo endomorfismo u de E, se tiene q [u(x)] = q(x) si y sólo sif [(u(x), u(y)] = f(x,y) para todo x,y ∈ E. En tal caso se dice que u conservaf o q.Demostración: Es inmediato a partir de las fórmulas q(x) = f(x,x) y

f(x,y) =1

2[q(x+ y)− q(x)− q(y)]

para todo x,y ∈ E.

Definición 88 Si E es de dimensión finita y q es una forma cuadrática sobreE. Si f es la polar de q, la matriz A = (aij) asociada a f respecto de una basede E se llama también matriz asociada a la forma cuadrática q y a sudeterminante se le llama discriminante de q. Tenemos entonces que

q(x) =Xi,j

aijxixj =Xi

aiix2i + 2

Xi,j

aijxixj

y se dice a menudo que aiix2i es un término ”cuadrado” y 2aijxixj es un término”cruzado” de la forma cuadrática.

Ejemplo 116 Consideremos la siguiente forma cuadrática sobre R2

q(x) = 2x21 − 3x1x2 + 4x22con x = (x1, x2). Determinar su nueva expresión cuando se toma como baseu1 = (1, 1) y u2 = (−1, 1). Hallar la forma bilineal simétrica asociada a q.Solución: Determinemos primero la matriz de q en la base dada, es decir,

A =

µ2 −32−32 4

Page 207: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.2. ORTOGONALIDAD. ELEMENTOS ISÓTROPOS 195

La matriz de cambio de base viene dada por

P =

µ1 −11 1

¶Por tanto, la matriz de q en la nueva base es

A0 = P tAP

=

µ1 −11 1

¶tµ2 −32−32 4

¶µ1 −11 1

¶=

µ1 1−1 1

¶µ12 −7252

112

¶=

µ3 22 9

¶y, en consecuencia, la nueva expresión de q en la nueva base viene dada así

q(x) = 3x21 + 4x1x2 + 9x22

donde x = (x1, x2) en la nueva base. Si f es la polar de q, entonces las matricesasociadas a f y q coinciden y, por tanto, tenemos

f(x,y) =

µx1x2

¶tµ3 22 9

¶µy1y2

¶=

¡x1 x2

¢µ 3y1 + 2y22y1 + 9y2

¶= 3x1y1 + 2x1y2 + 2x2y1 + 9y1y2

que es la expresión de f en la nueva base. Obsérvese que al hacer

q(x) = f(x,x)

= 3x21 + 4x1x2 + 9x22

se obtiene el mismo resultado anterior.

8.2. Ortogonalidad. Elementos isótropos

Definición 89 Sea f una forma bilineal simétrica sobre un espacio vectorialE sobre K. Se dice que x e y son dos vectores ortogonales respecto a f sif(x,y) = 0. Se dice también que dos subconjuntos A y B de E son ortoganalesrepecto a f , si cada vector de A es ortogonal a cada uno de los vectores de Brespecto a f . Por la bilinealidad de f , podemos decir entonces que dos subespa-cios F y G son ortogonales respecto a f si una base de F y una base de G sonortogonales.

Page 208: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

196CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Teorema 119 Si F es un subespacio vectorial de E, entonces el conjunto detodos los vectores x ∈ E que son ortogonales a todo y ∈ F respecto a f , es unsubespacio vectorial de E. Este subespacio se llama ortogonal de F respecto af y se designa generalmente por F⊥.Demostración: Es inmediata y se deja al lector.

Definición 90 Se dice que x ∈ E es un elemento isótropo respecto a f sif(x,x) = 0. Se dice que un subespacio F de E es isotropo repecto a f si existex 6= 0 de F ortogonal a todo F, es decir, cuando F ∩ F⊥ 6= {0}.Teorema 120 Si E es un espacio vectorial de dimensión n, para toda formabilineal simétrica f sobre E y todo subespacio F de E, las propiedades siguientesson equivalentes:

1. La restricción de f a F es no degenerada

2. F ∩ F⊥ = {0}3. F no es isotropo

4. E = F⊕ F⊥

Demostración: (1) ⇐⇒ (2)Si fF es la restricción de f a F, entonces fF esuna forma bilineal simétrica sobre F. Designemos por ϕ0 la aplicación lineal deF en F∗ definida por

ϕ0(x) = (fF)xSi x ∈ kerϕ0, entonces tenemos

[ϕ0(x)] (y) = (fF)x(y)

= fF(x,y)

= f(x,y) = 0

para todo y ∈ F, es decir, x ∈ F⊥. De este modo, obtenemos quekerϕ0 = F ∩ F⊥

Por lo tanto, F ∩ F⊥ = {0} es equivalente a ϕ0 inyectivo y, en consecuencia, afF no degenerada sobre F.(2) ⇐⇒ (3) La condición F∩F⊥ = {0} es equivalente a afirmar que el único

vector de F ortogonal a todo F es el vector cero. Por tanto, F no es isótropo.(1) ⇐⇒ (4) Para todo x ∈ E, consideremos la forma lineal fx sobre E.

Podemos considerar su restricción sobre F que designamos por u, es decir, secumple

u(y) = fx(y) = f(x,y)

para todo y ∈ F. Como fF no es degenerada sobre F, esto es equivalente por elteorema ??? (4) a que para toda forma lineal sobre F, en particular u, exista unúnico x1 de F tal que u(y) = f(x1,y) para todo y ∈ F . Por tanto, tenemos

f(x,y) = f(x1,y)

Page 209: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.2. ORTOGONALIDAD. ELEMENTOS ISÓTROPOS 197

para todo y ∈ F. De aquí, obtenemosf(x,y)− f(x1,y) = 0

f(x− x1,y) = 0

para todo y ∈ F. Dicho de otro modo, x2 = x− x1 es ortogonal a F, luego paratodo x ∈ E existen x1 ∈ F y x2 ∈ F⊥ tales que x = x1 + x2 y, en consecuencia,E = F+ F⊥. Ahora bien, como F ∩ F⊥ = {0}, se tiene

E = F⊕ F⊥

Corolario 42 Si F es un subespacio vectorial no isotropo de un espacio vectorialE de dimensión finita, entonces

dimF⊥ = dimE− dimFDemostración: Es evidente a partir del teorema anterior.

Corolario 43 Si f es una forma bilineal simétrica sobre un espacio vectorialE de dimensión finita, entonces las siguientes propiedades son equivalentes:

1. Para x ∈ E, la relación f(x,x) = 0 implica x = 0; dicho de otro modo, fno tiene ningún vector isótropo no nulo.

2. Se cumpleE = F⊕ F⊥

para todo subespacio vectorial F de E.

Demostración: Es inmediato que para todo subespacio F de E el subespacioF ∩ F⊥ se conpone de vectores isótropos. Por tanto, la propiedad (1) implica

F ∩ F⊥ = {0}y, por consiguiente, según el teorema anterior, implica (2). Recíprocamente, si secumple (2), en particular se cumplirá para cualquier subespacio F de dimensiónuno de E y, en consecuencia, deduciremos (1).

Ejemplo 117 Sea M2(R) el espacio vectorial de las matrices cuadradas deorden dos sobre el cuerpo R y f :M2(R)×M2(R) → R la aplicación definidapor

f(X,Y ) = tr(XY )− trX trY

Se pide:

1. Estudiar si f es una forma bilineal simétrica

2. Hallar el subespacio de las matrices ortogonales a la matriz identidad

Page 210: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

198CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

3. Determinar la dimensión de dicho subespacio

Solución:

1. f es una forma bilineal ya que para todo α, β ∈ R y X,Y,Z ∈M2(R) setiene

f(αX + βY,Z) = tr [(αX + βY )Z]− tr(αX + βY ) trZ

= tr(αXZ + βY Z)− α trX trZ − β trY trZ

= αtr(XZ) + βtr(Y Z)− α trX trZ − β trY trZ

= α(tr(XZ)− trX trZ) + β(tr(Y Z)− trY trZ)

= αf(X,Z) + βf(Y,Z)

Análogamente se comprueba que para todo α, β ∈ R y X,Y,Z ∈ M2(R)se tiene

f(X,αY + βZ) = αf(X,Y ) + βf(X,Z)

Además, f es simétrica

f(X,Y ) = tr(XY )− trX trY

= tr(Y X)− trY trX

= f(Y,X)

2. Si X es ortogonal a la matriz identidad I, se tiene

0 = f(X, I)

= tr(XI)− trX trI

= trX − 2 trX= −trX

Luego, trX = 0 y, por tanto, el subespacio de las matrices ortogonales aI es

F =½µ

a bc −a

¶: a, b, c ∈ R

¾3. Es claro que dimF = 3, ya queµµ

1 00 −1

¶,

µ0 10 0

¶,

µ0 01 0

¶¶constituye una base de F.

Ejemplo 118 Consideremos R4 referido a su base canónica y provisto de laforma cuadrática q definida por

q(x) = x21 + x22 + x23 − x24

para todo x = (x1, x2, x3, x4) ∈ R4. Se pide:

Page 211: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.2. ORTOGONALIDAD. ELEMENTOS ISÓTROPOS 199

1. Comprobar que el vector x0 = (1, 0, 0, 1) es isótropo respecto a q

2. Dar las coordenadas de todos los vectores isótropos en función de tresparámetros reales

3. Hallar el núcleo de q y verificar que x0 no pertenece a este núcleo

Solución:

1. Supongamos que f es la forma bilineal simétrica asociada a q. Entonces,el vector x0 es isótropo ya que

f(x0,x0) = q(x0) = 1 + 0 + 0− 1 = 02. El vector x = (x1, x2, x3, x4) es isótropo si y sólo si

q(x) = x21 + x22 + x23 − x24 = 0

Si hacemos x1 = α, x2 = β y x3 = γ, entonces tenemos

x4 = ±qα2 + β2 + γ2

Por tanto, los vectores

(α, β, γ,±qα2 + β2 + γ2)

con α, β, γ ∈ R, son isótropos respecto a q.

3. La matriz asociada a q es 1 0 0 00 1 0 00 0 1 00 0 0 −1

cuyo rango es 4. Por tanto, el núcleo de q se reduce al vector nulo y, enconsecuencia, x0 no pertenece a este núcleo.

Ejemplo 119 Sea E un espacio vectorial sobre K, f una forma bilineal simétri-ca sobre E y x0 un vector no nulo de E. Demostrar que el subespacio Kx0 esisótropo si y sólo si x0 es isótropo. Se dice entonces que Kx0 es una rectaisótropa que pasa por el origen.Solución: Todos los elementos del subespacio en cuestión son de la forma

λx0 con λ ∈ K. Luego, este subespacio será isótropo si existe µ 6= 0 tal quef(λx0, µx0) = λµf(x0,x0) = 0

para todo λ ∈ K. En particular, para λ = 1, tenemos

f(x0,x0) = 0

y, por tanto, x0 es isótropo. Recíprocamente, si x0 es isótropo entonces es obvioque el subespacio Kx0 es isótropo.

Page 212: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

200CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

8.2.1. Bases ortogonales

Definición 91 Sea E un espacio vectorial de dimensión n sobre K y f unaforma bilineal simétrica sobre E. Se llama base ortogonal de E respecto a f atoda base (e1, ..., en) de E tal que se cumpla

f(ei, ej) = 0

para i 6= j. Esto significa que la matriz de f respecto a esta base es diagonal, otambién que la expresión de f respecto a dicha base es de la forma

f(x,y) =nXi=1

aixiyi

con f(ei, ei) = ai (i = 1, ..., n).

Lema 3 Sea f una forma bilineal simétrica sobre un espacio vectorial E sobreun cuerpo conmutativo de característica distinta de 2. Si f no es nula, existenen E vectores no isótropos respecto a f .Demostración: Dicho de otro modo, si f 6= 0 y f(x,x) = 0 para todo x ∈ E,entonces K es de característica 2. En efecto, supongamos f(x,x) = 0 para todox ∈ E, entonces

f(x+ y,x+ y) = f(x,x) + 2f(x,y) + f(y,y)

= 2f(x,y)

y se tiene2f(x,y) = 0

cualesquiera que sean x,y ∈ E. Sustituyendo x por λx, con λ ∈ K, se tiene2λf(x,y) = 0

para todo λ ∈ K. Si f 6= 0, podemos elegir x e y de manera que f(x,y) = µ 6= 0;tomando λ = µ−1, resulta

2 = 0

y esto demuestra que K es de característica 2.

Teorema 121 (Existencia de bases ortogonales) Sea f una forma bilinealsimétrica sobre un espacio vectorial E de dimensión finita sobre K. Si K es decaracterística distinta de 2, existe una base ortogonal de E respecto a f .Demostración: El teorema es trivial si f = 0, de manera que supondremosf 6= 0. Como no hay nada que demostrar si E es de dimensión 1, razonaremospor inducción sobre n = dim E. Supongamos que hemos hallado un vector v1 ∈ Eno isótropo respecto a f , que existe por el lema anterior. Entonces, por el ejemplo???, Kv1 no es isótropo, y según el teorema ???, se cumple

E = Kv1 ⊕ (Kv1)⊥

Page 213: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.2. ORTOGONALIDAD. ELEMENTOS ISÓTROPOS 201

es decir, E es la suma directa de la recta vectorial generada por v1 y del hiper-plano F ortogonal a ésta. Según el corolario ???, dim F = n−1 y, en consecuen-cia, la hipótesis de inducción muestra que F admite una base v2, ...,vn ortogonalrespecto a la restricción fF de f a F. Es claro entonces que v1,v2, ...,vn es unabase ortogonal de E respecto a f .

Corolario 44 Sea f una forma bilineal simétrica sobre un espacio vectorial Ede dimensión n sobre un cuerpo K de característica distinta de 2 y q la formacuadrática asociada. Supongamos que K es de característica distinta de 2. En-tonces, existe una base de E tal que la expresión de f y de q respecto a esta basesea

f(x,y) =rX

i=1

aixiyi y q(x) =rX

i=1

aix2i

donde r ≤ n. Para que f sea no degenerada es necesario y suficiente que ai 6= 0para 1 ≤ i ≤ n, porque se debe expresar que la matriz de f respecto a la baseconsiderada es inversible.Demostración: Elijamos una base (e1, ..., en) de E ortogonal respecto a f ;podemos suponer (cambiando si es necesario la numeración de los vectores dela base) que

f(ei, ei) =

½ai para 1 ≤ i ≤ r0 para r + 1 ≤ i ≤ n

Entonces esta base cumple las condiciones del enunciado. Si r < n, es claro queen es ortogonal a todos los ei (1 ≤ i ≤ n) y, por tanto, a todo x ∈ E, y, enconsecuencia, f es degenerada. Se tiene por tanto r = n si f es no degenerada.Recíprocamente, si r = n la matriz de f respecto a la base que acabamos deconstruir es la matriz diagonal D = diag(a1, ..., an), con ai 6= 0 (i = 1, ..., n).Por tanto, es inversible y f no es degenerada.

Observación 87 1. Si suponemos que K es algebraicamente cerrado y decaracterística distinta de 2 (por ejemplo K = C). Entonces, existe unabase de E tal que la expresión de f y de q respecto a esta base sea

f(x,y) =rX

i=1

xiyi y q(x) =rXi=1

x2i

donde r ≤ n. Para que f sea no degenerada es necesario y suficiente quer = n. Como K es algebraicamente cerrado, existen λi ∈ K (1 ≤ i ≤ r)que verifican

λ2i f(ei, ei) = 1

para 1 ≤ i ≤ r. Esto quiere decir que los vectores vi = λiei satisfacen

f(vi,vi) = 1

para 1 ≤ i ≤ r, ya que f es bilineal. Entonces la base (v1, ...,vn) cumplelas condiciones del enunciado. Si r < n, es claro que en es ortogonal a

Page 214: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

202CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

todos los ei (1 ≤ i ≤ n) y, por tanto, a todo x ∈ E, y, en consecuencia, fes degenerada. Se tiene entonces r = n si f es no degenerada. Recíproca-mente, si r = n la matriz de f respecto a la base que acabamos de construires la matriz identidad, por tanto, es inversible y f no es degenerada.

2. Observemos que r es el rango de f , ya que el núcleo de f está descrito porx = λ1e1 + · · ·+ λnen verificando

f(x,y) = 0

para todo y ∈ E. En particular, entonces tenemosa1λ1 = · · · = arλr = 0

luego, como ai 6= 0 para 1 ≤ i ≤ r,

λ1 = · · · = λr = 0

Por tanto, el núcleo de f está pues descrito por los vectores x de E verif-icando

x = λr+1er+1 + · · ·+ λnen

es decir, dimker f = n− r y, en consecuencia, rang f = r.

Corolario 45 Sea f una forma bilineal simétrica sobre un espacio vectorial realE de dimensión n y q la forma cuadrática asociada. Existen números naturaless, t tales que s+ t ≤ n, y una base de E tal que la expresión de f respecto a estabase sea

f(x,y) =sX

i=1

xiyi −s+tX

i=s+1

xiyi y q(x) =sX

i=1

x2i −s+tX

i=s+1

x2i

Además, f es no degenerada si y sólo si s+ t = n.Demostración: Elijamos una base (e1, ..., en) de E ortogonal respecto a f ;podemos suponer (cambiando si es necesario la numeración de los vectores dela base) que

f(ei, ei) =

> 0 para 1 ≤ i ≤ s< 0 para s+ 1 ≤ i ≤ s+ t= 0 para s+ t+ 1 ≤ i ≤ n

Tomando ahora

vi =

ei√

f(ei,ei)para 1 ≤ i ≤ s

ei√− f(ei,ei)

para s+ 1 ≤ i ≤ s+ t

ei para s+ t+ 1 ≤ i ≤ n

encontramos una base de E respecto a la cual la expresión de f es evidentementela del enunciado, ya que

f(vi,vi) =

1 para 1 ≤ i ≤ s−1 para s+ 1 ≤ i ≤ s+ t0 para s+ t+ 1 ≤ i ≤ n

Page 215: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.2. ORTOGONALIDAD. ELEMENTOS ISÓTROPOS 203

Si s+ t < n, es claro que en es ortogonal a todos los ei (1 ≤ i ≤ n) y, por tanto,a todo x ∈ E, y, en consecuencia, f es degenerada. Se tiene por tanto s+t = n sif es no degenerada. Recíprocamente, si s+t = n la matriz de f respecto a la baseque acabamos de construir es la matriz diagonal D = diag(1, ..., 1,−1, ...,−1).Por tanto, es inversible y f no es degenerada.

Observación 88 Es obvio que rang f = s + t. Las mismas consideracionesrealizadas en la última observación muestran este hecho.

En el siguiente teorema se demuestra que los números s, t no dependen másque de f , y no de la elección de la base.

Teorema 122 (Ley de inercia de Sylvester) Todas las matrices reducidasdiagonales asociadas a una función bilineal simétrica f (o a una forma cuadráti-ca q) sobre un espacio vectorial real E de dimensión n contienen el mismonúmero de términos positivos y negativos.Demostración: En la base v1, ...,vn del corolario anterior las expresiones def y q son como sigue

f(x,y) =sX

i=1

xiyi −s+tX

i=s+1

xiyi y q(x) =sX

i=1

x2i −s+tX

i=s+1

x2i

que contienen p términos positivos y q negativos. Supongamos ahora que existeuna segunda base u1, ...,un de E ortogonal respecto a f (o a q) para la que f yq toma la siguiente expresión

f(x,y) =s0Xi=1

xiyi −s0+t0Xi=s0+1

xiyi y q(x) =s0Xi=1

x2i −s0+t0Xi=s0+1

x2i

Vamos a demostrar que s = s0 y t = t0. Consideremos los dos subespaciosvectoriales de E siguientes:

F = hv1, ...,vsiG = hus0+1, ...,uni

obviamente, dim F = s y dim G = n − s0. Si x ∈ F, se tiene q(x) ≥ 0; si,además, x 6= 0 es claro que existe al menos un xi 6= 0 (1 ≤ i ≤ p), luegoq(x) > 0 para todo x 6= 0 de F. Por otra parte, es claro también que si x0 ∈ G,se tiene q(x0) ≤ 0. Por tanto,

F ∩G = {0}luego, según la fórmula de Grassmann, obtenemos,

dim F+ dim G = dim(F+G) ≤ dim E

es decir,s+ n− s0 ≤ n

Page 216: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

204CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

de dondes ≤ s0

Ahora, permutando el papel de las bases (vi) y (ui) se demostrará del mismomodo que s0 ≤ s. Por lo tanto, s = s0. Como, por otro lado, s + t = s0 + t0 =rang f , se tiene también t = t0.

Definición 92 Sea f una forma bilineal simétrica sobre un espacio vectorialreal E de dimensión n y q la forma cuadrática asociada. Existen números natu-rales s, t tales que s+ t ≤ n, y una base de E tal que la expresión de f respectoa esta base sea

f(x,y) =sX

i=1

xiyi −s+tX

i=s+1

xiyi y q(x) =sX

i=1

x2i −s+tX

i=s+1

x2i

Al par de enteros naturales (s, t) se le llama la signatura de f o de q.

8.2.2. Bases ortonormales

Sea f una forma bilineal simétrica sobre un espacio vectorial E de dimensiónfinita sobre K.

Definición 93 Decimos que una base (e1, ..., en) de E es ortonormal respectoa f si

f(ei, ej) =

½0 si i 6= j1 si i = j

o lo que es lo mismo, si la matriz de f respecto a la base en cuestión es la matrizidentidad, o, por último, si la expresión de f respecto a esta base es de la forma

f(x,y) =nXi=1

xiyi

donde n = dim E.

Observación 89 La existencia de una base ortonormal obliga evidentementea que f sea no degenerada, y la observación ??? muestra que esta condicióntambién es suficiente en el caso ortogonal complejo o, con mayor generalidad,si K es algebraicamente cerrado y de característica distinta de 2.

Definición 94 Decimos que una forma bilineal simétrica f sobre un espaciovectorial real E y que la forma cuadrática asociada q es definida positiva si

f(x,x) = q(x) > 0

para todo x 6= 0 de E.

Page 217: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.2. ORTOGONALIDAD. ELEMENTOS ISÓTROPOS 205

Teorema 123 (Existencia de bases ortonormales) Sea E un espacio vec-torial real de dimensión finita y f una forma bilineal simétrica sobre E. Paraque E admita una base ortonormal respecto a f es necesario y suficiente que fsea definida positiva.Demostración: Si f admite una base ortonormal, entonces se tiene para todox ∈ E

f(x,x) =nXi=1

x2i

y por consiguiente,f(x,x) > 0

para todo x 6= 0. Recíprocamente, si f es definida positiva, la demostración delcorolario ??? muestra que se cumple s = n, y por tanto consiguiente que Eadmite una base ortonormal.

Del corolario ??? se deduce que para que f sea definida positiva es necesarioy suficiente que s = n y t = 0. El otro extremo, s = 0 y t = n, es el de lasformas definidas negativas, es decir,

f(x, x) < 0

para todo x 6= 0.

Definición 95 Decimos que una forma bilineal simétrica f sobre un espaciovectorial real E y que la forma cuadrática asociada q es definida negativa si

f(x,x) = q(x) < 0

para todo x 6= 0 de E.

Definición 96 Se dice con mayor generalidad que una forma bilineal simétricaf sobre un espacio vectorial real E y que la forma cuadrática asociada q espositiva (resp. negativa) si se cumple f(x,x) = q(x) ≥ 0 (resp. f(x,x) =q(x) ≤ 0) para todo x ∈ E. Una forma que no es ni positiva ni negativa sellama indefinida; esto significa que se pueden encontrar vectores x,y ∈ E talesque

f(x,x) = q(x) > 0 y f(y,y) = q(y) < 0

Observación 90 Esto significa evidentemente que t = 0 (resp. s = 0), demanera que las formas definidas positivas (resp. definidas negativas) son lasformas positivas (resp. negativas) no degeneradas. Para el caso en que la formaes indefinida es claro que se tiene p ≥ 1 y q ≥ 1.

Teorema 124 (Desigualdad de Schwarz) Si f es una forma bilineal simétri-ca positiva sobre un espacio vectorial real E y q la forma cuadrática asociada,se cumple

f(x,y) ≤pq(x) q(y)

Page 218: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

206CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

para todo (x,y) ∈ E× E.Demostración: Siendo f positiva, para todo x,y ∈ E y λ ∈ R, tenemos

q(x+ λy) = f(x+ λy,x+ λy)

= f(x,x) + 2λf(x,y) + λ2f(y,y) ≥ 0en el caso en que f(y,y) 6= 0, q(x+ λy) es un polinomio de segundo grado enλ con coeficientes reales. Como

f(x,x) + 2λf(x,y) + λ2f(y,y) ≥ 0es imposible que tenga dos raíces reales distintas, de donde

4 [f(x,y)]2 − 4q(x) q(y) ≤ 0es decir,

[f(x,y)]2 ≤ q(x) q(y)

Si y es tal que f(y,y) = 0, la desigualdad

f(x,x) + 2λf(x,y) ≥ 0no se puede verificar para todo número real λ salvo que f(x,y) = 0 y, en con-secuencia,

[f(x,y)]2 ≤ q(x) q(y)

también se cumple. En definitiva, se cumple

f(x,y) ≤pq(x) q(y)

Corolario 46 Si q es una forma cuadrática positiva sobre un espacio vectorialreal E, se cumple p

q(x+ y) ≤pq(x) +

pq(y)

para todo x,y ∈ E.Demostración: De la desigualdad de Schwarz se sigue que

q(x+ y) = f(x+ y,x+ y)

= f(x,x) + 2f(x,y) + f(y,y)

≤ q(x) + 2pq(x) q(y) + q(y)

=hp

q(x) +pq(y)

i2de donde, obtenemos p

q(x+ y) ≤pq(x) +

pq(y)

Page 219: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.3. FORMAS BILINEALES SIMÉTRICAS REALES 207

Corolario 47 El núcleo de una forma bilineal simétrica positiva f sobre unespacio vectorial real E es el conjunto de los vectores isótropos de E respecto af .Demostración: Sabemos que el núcleo de f está constituido por los vectores xde E tales que

f(x,y) = 0

para todo y ∈ E. Por tanto, todo elemento del núcleo es isótropo. Recíproca-mente, si f es positiva y x es cualquier vector isótropo de E, entonces

f(x,x) = 0

Por la desigualdad de Schwarz, tenemos

[f(x,y)]2 ≤ 0

para todo y ∈ E, y por tanto,f(x,y) = 0

para todo y ∈ E.

Observación 91 De lo anterior resulta que si f es definida positiva, su núcleose reduce a {0}; por tanto, el vector nulo es el único vector isótropo respecto auna forma bilineal simétrica definida positiva sobre un espacio vectorial real E.

8.3. Formas bilineales simétricas reales

En toda esta sección suponemos que E es un espacio vectorial sobre R.Diremos entonces que f es una forma bilineal simétrica real y que q es unaforma cuadrática real.

Definición 97 Sea E un espacio vectorial sobre R (o C), toda aplicación p deE en R que posee las siguientes propiedades:

1. p(x) = 0 si y sólo si x = 0

2. p(x+ y) ≤ p(x) + p(y)

3. p(λx) = |λ| p(x)

para todo x,y ∈ E y λ ∈ R, se llama una norma sobre E.

Observación 92 1. En esta definición se puede reemplazar R o C por cualquiercuerpo valorado K, es decir, que posea definido un valor absoluto.

2. Es habitual escribir kxk en lugar de p(x).

Page 220: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

208CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Teorema 125 Si q es la forma cuadrática asociada a una forma bilineal simétri-ca definida positiva sobre un espacio vectorial E real, la aplicación de E en R+,definida por

x 7−→pq(x)

para todo x ∈ E, es una norma sobre E.Demostración: Si f es definida positiva, entonces el único vector isótropo es0, luego

q(x) = 0 ⇐⇒ x = 0

Además, según el corolario ???, se tienepq(x+ y) ≤

pq(x) +

pq(y)

para todo x,y ∈ E. Finalmente,q(λx) = f(λx, λx) = λ2q(x)

Por tanto, pq(λx) = |λ|

pq(x)

para todo x ∈ E y λ ∈ R.Definición 98 Un espacio vectorial E sobre R provisto de una norma x 7−→pq(x), siendo q una forma cuadrática definida positiva sobre E, se llama un

espacio prehilbertiano real en el caso general y, en particular, si E es dedimensión finita, E se llama espacio euclideo.

Definición 99 Sea E un espacio euclideo de dimensión n, a la forma bilinealsimétrica definida positiva sobre E se llama producto escalar. Si f es el pro-ducto escalar sobre E, utilizaremos la notación x · y para designar el númeroreal f(x,y). Se llama norma euclidea a la norma definida por

kxk = √x · xEn una base ortonormal de E, se tiene

x · y = x1y1 + · · ·+ xnyn

y

kxk =qx21 + · · ·+ x2n

Observación 93 Si E un espacio euclideo de dimensión n, es decir, un espaciovectorial de dimensión n sobre R provisto de una forma bilineal simétrica defini-da positiva f . Cualesquiera que sea esta forma f , referida a una base ortonormalrespecto a f , se expresará como sigue

f(x,y) =nXi=1

xiyi

Page 221: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.3. FORMAS BILINEALES SIMÉTRICAS REALES 209

Esto nos permite decir que existe una sola estructura de espacio euclideo de di-mensión n. Para estudiarlo escogemos una forma bilineal simétrica no degener-ada positiva f0 que se llama producto escalar sobre E. Las bases ortonormalesde E serán las bases ortonormales respecto a f0. Asimismo, se llama normaeuclidea a la norma definida con la ayuda de la forma cuadrática q0 asociadaa f0.

Definición 100 Si E es un espacio euclideo, dos vectores x,y ∈ E se llamanortogonales si x · y = 0. Un vector x ∈ E se llama unitario si x · x = 1.

Ejemplo 120 Si E es un espacio euclideo y x es un vector de E no nulo, en-tonces

x√x · x

es un vector unitario de E.Solución: Tenemos

x√x · x ·

x√x · x =

x · xx · x = 1

Ejemplo 121 Si E es un espacio euclideo y S es un subconjunto de vectoresdiferentes de 0 y ortogonales dos a dos, entonces S es linealmente independiente.Solución: Supongamos que S = {v1, ...,vr} y que

rXi=1

λivi = 0

Entonces, para cada vk tenemos,

0 =

ÃrX

i=1

λivi

!· vk

=rX

i=1

λi vi · vk

= λk vk · vkAhora bien, como vk 6= 0, se tiene vk · vk 6= 0. Por tanto, λk = 0 para todo k.

Teorema 126 (Método de Gram-Schmidt) Si E es un espacio euclideo,entonces siempre existe una base ortonormal de E.Demostración: Sea e1, ..., en una base cualquiera de E. Consideremos los sube-spacios siguientes:

E1 = he1i ⊂ E2 = he1, e2i ⊂ · · · ⊂ En = he1, ..., eni = E

Page 222: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

210CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Es claro que E1 tiene una base ortonormal que es

u1 =e1√e1 · e1

Supongamos que u1, ...,ur es una base ortonormal de Er. Construyamos unabase ortonormal de Er+1 = hu1, ...,ur, er+1i de la siguiente manera: considere-mos un vector de la forma

u0r+1 = er+1 − (λ1u1 + · · ·+ λrur)

ortogonal a cada ui, i = 1, ..., r, es decir,

0 = u0r+1 · ui= [er+1 − (λ1u1 + · · ·+ λrur)] · ui= er+1 · ui − λi

Por tanto, tenemos que tomar para cada i = 1, ..., r

λi = er+1 · uiEl ejemplo ??? nos dice que u1, ...,ur,u0r+1 son linealmente independientes y,por tanto, forman una base de Er+1. Si ahora hacemos

ur+1 =u0r+1p

u0r+1 · u0r+1entonces, los vectores u1, ...,ur,ur+1 forman una base ortonormal de Er+1. Deeste modo, por inducción obtenemos que En = E tiene una base ortonormal.

Teorema 127 Si una forma bilineal f sobre un espacio vectorial real tiene lamatriz identidad en una base u1, ...,un, entonces f es un producto escalar.Demostración: Es inmediato y se deja al lector los detalles de la demostración.

Ejemplo 122 En R3 se considera el producto escalar que en la base canónicatiene por matriz

G =

3 1 11 1 01 0 1

Determinar por el método de Gram-Schmidt un conjunto ortonormal de {(1, 0, 0), (0, 1, 1)}respecto del producto escalar considerado.Solución: Hacemos v1 = (1, 0, 0) y v2 = (0, 1, 1). Entonces tenemos,

u1 =v1√v1 · v1

Page 223: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.3. FORMAS BILINEALES SIMÉTRICAS REALES 211

donde, en este caso,

v1 · v1 =¡1 0 0

¢ 3 1 11 1 01 0 1

100

=

¡1 0 0

¢ 311

= 3

luego,

u1 = (1√3, 0, 0)

Por otro lado, tenemosu02 = v2 − λu1

siendo λ = v2 · u1, es decir,

λ =¡0 1 1

¢ 3 1 11 1 01 0 1

1√3

00

=

¡0 1 1

¢3√31√31√3

=2√3

luego,

u02 = (0, 1, 1)− (23, 0, 0)

= (−23, 1, 1)

y

u02 · u02 =¡ −23 1 1

¢ 3 1 11 1 01 0 1

− 2311

=

¡ −23 1 1¢ 0

1313

=2

3

Por tanto,

u2 =u02pu02 · u02

= (− 2√6,3√6,3√6)

Los vectores u1, u2 forman un conjunto ortonormal respecto al producto consid-erado.

Page 224: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

212CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Teorema 128 Si E es un espacio euclideo, la aplicación ϕ : E → E∗ definidapor ϕ(y) = y∗ y tal que y∗(x) = x · y para todo x ∈ E, es un isomorfismocanónico.Demostración: Para todo y ∈ E, la aplicación y∗ : E → R definida pory∗(x) = x ·y es lineal. Entonces, podemos definir la aplicación ϕ : E → E∗ porϕ(y) = y∗. La aplicación ϕ es inyectiva ya que

y∗ = w∗ =⇒ y∗(x) = z∗(x)=⇒ x · y = x · z=⇒ x · (y − z) = 0=⇒ y− z = 0=⇒ y = z

Veremos ahora que la aplicación ϕ es exhaustiva. En efecto, dado w ∈ E∗,consideremos una base ortonormal e1, ..., en de E y el vector

y = w(e1) e1 + · · ·+w(en) enEl vector y es una antiimagen de w, ya que

y∗(ei) = ei · y = w(ei)para todo i = 1, ..., n, es decir, y∗ = w. Por último, veremos que ϕ es lineal. Enefecto, se cumple

(y+ z)∗(x) = x · (y + z)= x · y+ x · z= y∗(x) + z∗(x)

para todo x ∈ E, es decir,ϕ(y+ z) = ϕ(y) + ϕ(z)

Además,

(λy)∗(x) = x · (λy)= λ(x · y)= λy∗(x)

para todo x ∈ E; por tanto,ϕ(λy) = λϕ(y)

Definición 101 Si E es un espacio euclideo y S es un subconjunto de E. De-nominaremos subespacio ortogonal de S a

S⊥ = {y ∈ E : x · y = 0, para todo x ∈ E}

Page 225: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.3. FORMAS BILINEALES SIMÉTRICAS REALES 213

Teorema 129 Si E es un espacio euclideo y S, T son subconjuntos de E. Secumple:

1. S⊥ es un subespacio vectorial de E

2. S ⊂ T implica T⊥ ⊂ S⊥

3. S⊥ = hSi⊥

4. hSi ∩ S⊥ = {0}5. hSi ⊂ (S⊥)⊥

Demostración: En cada caso es una simple comprobación a partir de la defini-ción; la demostración se deja al lector.

Teorema 130 Si E es un espacio euclideo y F es un subespacio vectorial de E,entonces

E = F⊕ F⊥

Demostración: De la propiedad 4 del teorema anterior se deduce que F∩F⊥ ={0}. Sea u1, ...,ur una base ortonormal de F. Completémosla hasta obteneruna base u1, ...,ur, er+1, ..., en de E y apliquemos el método de Gram-Schmidtpara conseguir una base ortonormal u1, ...,ur,ur+1, ...,un de E. Observemos queuj ∈ F⊥ si j = r + 1, ..., n. Entonces, para todo x ∈ E,

x = x1u1 + · · ·+ xrur + xr+1ur+1 + · · ·+ xnun ∈ F+ F⊥

de donde resulta lo que queríamos demostrar.

Corolario 48 Si E es un espacio euclideo y F es un subespacio vectorial de E,entonces

dimF⊥ = dimE− dimFDemostración: Es inmediato a partir del resultado del teorema anterior.

Corolario 49 Si E es un espacio euclideo y F es un subespacio vectorial de E,entonces F⊥⊥ = F.Demostración: Por la propiedad 5 del teorema ???, se tiene F ⊆ F⊥⊥. Por elcorolario anterior, F y F⊥⊥ tienen la misma dimensión y, por tanto, F⊥⊥ = F.

8.3.1. Endomorfismos adjuntos y autoadjuntos

Definición 102 Sea E un espacio euclideo. Un endomorfismo g se llama eladjunto de f ∈ L(E) si

x · g(y) = f(x) · ypara todo x,y ∈ E.

Page 226: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

214CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Teorema 131 Sea E un espacio euclideo. El adjunto de un endomorfismo f deE, si existe, es único.Demostración: En efecto, si g1 también es adjunto de f ∈ L(E), tenemos

x · g(y) = f(x) · y= x · g1(y)

para todo x,y ∈ E, de donde

g(y) = g1(y)

para todo y ∈ E. Por tanto, g = g1.

Teorema 132 Sea E un espacio euclideo. El adjunto g de un endomorfismo fde E queda determinado por

g = ϕ−1 ◦ f 0 ◦ ϕ

siendo ϕ el isomorfismo canónico entre E y su dual E∗, y f 0 : E∗ → E∗ tal quef 0(y∗) = y∗ ◦ f para todo y∗ ∈ E∗.Demostración: Veremos que la aplicación

g = ϕ−1 ◦ f t ◦ ϕ : E −→ E∗ −→ E∗ −→ E

es lineal y que satisfacex · g(y) = f(x) · y

para todo x,y ∈ E. La linealidad de g es consecuencia de la linealidad de ϕ yde f 0. Observemos ahora que

ϕ f 0 ϕy 7−→ y∗ 7−→ y∗ ◦ f ←− g(y)

es decir, se cumple[g(y)]

∗= y∗ ◦ f

de donde, para todo x ∈ E se tiene

[g(y)]∗ (x) = (y∗ ◦ f)(x)x · g(y) = y∗(f(x))x · g(y) = f(x) · y

Teorema 133 Sea E un espacio euclideo. Si g es el adjunto de f ∈ L(E),entonces

ker g = (Im f)⊥ y Im g = (ker f)⊥

Page 227: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.3. FORMAS BILINEALES SIMÉTRICAS REALES 215

Demostración: Observamos que

ker g = {y ∈ E : g(y) = 0}= {y ∈ E : x · g(y) = 0, para todo x ∈ E}= {y ∈ E : f(x) · y = 0, para todo x ∈ E}= (Im f)⊥

De aquí, tomando ortogonales, obtenemos

Im f = (ker g)⊥

Ahora bien, si g es el adjunto de f , entonces f es el adjunto de g y, en particular,se cumple

Im g = (ker f)⊥

Teorema 134 Sea E un espacio euclideo. Si A = (aij) es la matriz de f ∈ L(E)en una base ortonormal e1, ..., en. La matriz del adjunto de f en dicha base esAt = (aji).Demostración: Sea g el adjunto de f y B = (bij) su matriz en la base e1, ..., en.Entonces,

g(ei) =nXj=1

bjiej

de donde,

bji = g(ei) · ej= ei · f(ej)

= ei ·Ã

nXk=1

akjek

!= aij

Por tanto, B = At.

Ejemplo 123 En R2 se considera el producto escalar cuya matriz en la basecanónica es

G =

µ2 00 3

¶y el endomorfismo f definido por

f(x, y) = (2x+ 3y, y)

Determinar el adjunto de f .Solución: La matriz de f en la base ortonormal (( 1√

2, 0), (0, 1√

3)) esÃ

1√2

0

0 1√3

!−1µ2 30 1

¶Ã 1√2

0

0 1√3

!=

µ2√6

0 1

Page 228: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

216CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Por tanto, la matriz del adjunto g de f en esta base esµ2 0√6 1

¶y en la base canónicaÃ

1√2

0

0 1√3

!µ2 0√6 1

¶Ã 1√2

0

0 1√3

!−1=

µ2 02 1

¶Por tanto,

g(x, y) = (2x, 2x+ y)

Definición 103 Sea E un espacio euclideo. Se dice que f ∈ L(E) es autoad-junto o simétrico cuando su adjunto coincide con sí mismo, es decir, si secumple

x · f(y) = f(x) · ypara todo x,y ∈ E.

Corolario 50 Sea E un espacio euclideo. Si A es la matriz de f ∈ L(E) en unabase ortonormal de E, entonces f es simétrico si y sólo si A = At.Demostración: Es inmediato a partir del teorema anterior.

Ejemplo 124 Sea f un endomorfismo del espacio euclideo ordinario R2 cuyamatriz en la base ((1, 1), (0, 1)) es µ

2 0α 1

¶Determinar α para que f sea simétrico.Solución: Si f es simétrico, entonces su matriz en una base ortonormal

debe ser simétrica. Si tomamos la base canónica, entonces la matriz de f enesta base es µ

1 01 1

¶µ2 0α 1

¶µ1 01 1

¶−1=

µ2 0α+ 1 1

¶luego, α+ 1 = 0, es decir, α = −1.

Definición 104 Sea E un espacio euclideo. Se dice que un automorfismo f deE es ortogonal si su adjunto es f−1, es decir, si se cumple

x · f−1(y) = f(x) · y

para todo x,y ∈ E.

Page 229: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.3. FORMAS BILINEALES SIMÉTRICAS REALES 217

Teorema 135 Sea E un espacio euclideo. Si f es un automorfismo ortogonalde E si y sólo si f conserva el producto escalar, es decir, se cumple

f(x) · f(y) = x · y

para todo x,y ∈ E.Demostración: En efecto, si f es un automorfismo ortogonal de E, entonces

f(x) · f(y) = x · f−1(f(y))= x · y

para todo x,y ∈ E y, por tanto, f conserva el producto escalar. Recíprocamente,si f conserva el producto escalar y suponemos que g es el endomorfismo adjuntode f , entonces

x · y = f(x) · f(y)x · y = x · g(f(y))

par todo x,y ∈ E, de dondeg ◦ f = idE

De aquí se sigue que f es inyectiva y, en consecuencia, biyectiva ya que E esde dimensión finita, luego g = f−1 y se tiene también

f ◦ g = idE

Observación 94 Podíamos haber definido endomorfismo ortogonal de E comoun endomorfismo de E que conserva el producto escalar y deducir de ahí quedicho endomorfismo es biyectivo y, en consecuencia, un automorfismo de E.

Corolario 51 Sea E un espacio euclideo. Si A es la matriz de f ∈ L(E) enuna base ortonormal e1, ..., en de E, entonces las siguientes propiedades sonequivalentes:

1. f es ortogonal

2. f(e1), ..., f(en) es una base ortonormal

3. A−1 = At

4. AtA = AAt = In

Demostración: (1) ⇐⇒ (2) Si f es ortogonal, por el teorema anterior, fconserva el producto escalar y, por tanto, se cumple

f(ei) · f(ej) = ei · ej = δij

Page 230: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

218CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

y, en consecuencia, f(e1), ..., f(en) es una base ortonormal. Recíprocamente, sif(e1), ..., f(en) es una base ortonormal, entonces

f(x) · f(y) = f

ÃnXi=1

xiei

!· f nX

j=1

xjej

=

ÃnXi=1

xif(ei)

!· nX

j=1

xjf(ej)

=

nXi=1

nXj=1

xiyj(f(ei) · f(ej))

=nXi=1

nXj=1

xiyi

= x · y(1) ⇐⇒ (3) Si f es ortogonal, por el corolario ???, esto es equivalente a

A−1 = At.(3) ⇐⇒ (4) Es inmediato y se deja la demostración al lector.

Corolario 52 Sea E un espacio euclideo. Si e1, ..., en y u1, ...,un son dos basesortonormales de E, entonces la matriz de paso de una base a la otra es ortogonal.(recordemos que una matriz cuadrada A de orden n se llama ortogonal si y sólosi AtA = In)Demostración: En efecto, Si suponemos que P es la matriz de paso de la baseu1, ...,un a la base e1, ..., en, entonces

X = PX 0

donde X e X 0 designan las matrices columna de un vector x expresado en (ei)y (ui), respectivamente. Obsérvese que

x · x = XtX

= (PX 0)t(PX 0)= (X 0)tP tPX 0

Por tanto,P tP = In

8.3.2. Diagonalización de matrices simétricas

Según el corolario anterior, toda matriz simétrica real es la matriz de unendomorfismo autoadjunto en una base ortonormal de un espacio euclideo E.El problema de diagonalizar estas matrices equivale, pues, al de encontrar unabase de vectores propios de un endomorfismo autoadjunto de E.

Page 231: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.3. FORMAS BILINEALES SIMÉTRICAS REALES 219

Definición 105 Si E es un espacio vectorial de dimensión n sobre R y e1, ..., enes una base de E, entonces se tiene

E = R e1 ⊕ · · ·⊕ R enSi ahora consideramos el espacio vectorial E0 sobre C que tiene igualmente comobase e1, ..., en, entonces se tendrá

E0 = C e1 ⊕ · · ·⊕ C enEl espacio vectorial E0 de dimensión n sobre C asociado de esta manera a E sellama complejificado de E, y se tiene claramente

E ⊂ E0 y E 6= E0

Observación 95 1. Si suponemos que E es un espacio euclideo, es decir, unespacio vectorial provisto de una forma bilineal simétrica definida positivaf , se tendrá

f(x,y) =nXi=1

xiyi

cuando está referida a una base ortonormal e1, ..., en de E. Entonces, sepuede dar a E0, complejificado de E, la forma bilineal f 0 : E0 × E0 → Cdefinida en la misma base (es decir, en la base ortonormal de E respectoa f) por

f 0(x,y) =nXi=1

xiyi

con

x =nXi=1

xiei y y =nXi=1

yiei

pero, ahora x1, ..., xn, y1, ..., yn son números complejos. Es claro que f 0

es una forma bilineal simétrica no degenerada sobre E0 y que e1, ..., en,considerada como base de E0, es ortonormal respecto a f 0. Ahora bien, esimportante saber que en este caso

f 0(x,x) =nXi=1

x2i

es un número complejo que puede ser nulo aun cuando x 6= 0, es decir,hay en E0 vectores isótropos no nulos. Por lo tanto, no se puede asociaruna norma a f 0 y f 0 no es un producto escalar. Por ejemplo, el vectorx = (1, i) 6= 0 es isótropo respecto a la forma cuadrática sobre C2 definidapor

q(x) = x21 + x22

Page 232: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

220CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

2. Si suponemos que E es un espacio euclideo y f es un endomorfismo de E,entonces podemos asociarle un endomorfismo f 0 del complejificado E0 deE de manera que su matriz A sea la misma que la de f en la misma base.Los valores propios de f (en C) son los mismos que los de f 0, que son losde la matriz real A.

Lema 4 Si E es un espacio euclideo de dimensión n y f : E → E es autoad-junto, entonces el polinomio característico de f es de la forma

p(x) = ±(x− λ1) · · · (x− λn)

con λ1, ..., λn ∈ R, es decir, todos los valores propios de f son números reales.Demostración: Sea E0 el complejificado de E y f 0 el endomorfismo de E0 aso-ciado a f . Sea A la matriz de f en una base ortonormal de E. Puesto que f yf 0 tienen la misma matriz A en dicha base y f es autoadjunto, A es simétrica.Es claro que, con respecto a esta base, se cumplirá también

x · f 0(y) = f 0(x) · ypara todo x,y ∈ E0. Sea λ un valor propio de f 0 en C y, por tanto, de f y de A. Siλ fuera un número complejo, f 0 admitiría también el valor propio λ, conjugadode λ. Sean x y x dos vectores propios, no nulos, asociados, respectivamente, aλ y λ. Podemos suponer que sus coordenadas son dos a dos conjugadas en unacierta base ortonormal de E0. Entonces tenemos,

x · f 0(x) = f 0(x) · xx · (λx) = (λx) · xλ(x · x) = λ(x · x)

(λ− λ)(x · x) = 0

de donde

(λ− λ)(x · x) = (λ− λ)nXi=1

|xi|2 = 0

como x 6= 0 implicanXi=1

|xi|2 6= 0

se sigue que λ = λ y, por tanto, que λ es real.

Teorema 136 Si E es un espacio euclideo de dimensión n y f : E → E esautoadjunto, se cumple:

1. El subespacio ortogonal a todo vector propio no nulo de f es invariantepor f

2. Los subespacios propios asociados a dos valores propios distintos son or-togonales

Page 233: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.3. FORMAS BILINEALES SIMÉTRICAS REALES 221

Demostración:

1. Si x es un vector propio no nulo de f de valor propio λ, entonces elsubespacio

F = hxi⊥ = {y ∈ E : x · y = 0}es invariante pot f . En efecto, si y ∈ F, entonces

x · f(y) = f(x) · y= (λx) · y= λ(x · y)= λ · 0 = 0

Por tanto, f(y) ∈ F.

2. Sean x1 y x2 dos vectores propios de f asociados, respectivamente, a dosvalores propios distintos λ1 y λ2. Entonces, tenemos

x1 · f(x2) = f(x1) · x2x1 · (λ2x2) = (λ1x1) · x2λ2(x1 · x2) = λ1(x1 · x2)

(λ1 − λ2)(x1 · x2) = 0

de donde, x1 · x2 = 0 y, por tanto, x1 y x2 son ortogonales. Por consigu-iente, resulta que los subespacios propios asociados a λ1 y λ2 son ortogo-nales.

Teorema 137 Si E es un espacio euclideo de dimensión n y f : E → E esautoadjunto, existe una base de vectores propios ortonormal.Demostración: Procederemos por inducción sobre la dimensión de E. Si dim E =1, f tiene un solo valor propio λ. Si x 6= 0 es un vector propio, entonces

u =x

kxk

constituye una base ortonormal de E. Sea dim E = n > 1 y supongamos quepara todo endomorfismo simétrico f de un espacio euclideo de dimensión n− 1existe una base ortonormal de vectores propios. Si dim E = n, f tiene n valorespropios reales por el lema anterior. Sea λ1 uno de ellos, y u1 un vector propio devalor propio λ1 tal que ku1k = 1. Consideremos el subespacio vectorial F = hu1i;F no es isótropo ya que en un espacio euclideo el único vector isótropo es 0. Portanto

E = F⊕ F⊥

Page 234: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

222CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Por 1 del teorema anterior, F⊥ es invariante por f y, por tanto, si f 0 es elendomorfismo inducido por f en F⊥, f 0 es simétrico ya que

x · f 0(y) = x · f(y)= f(x) · y= f 0(x) · y

para todo x,y ∈ F⊥. Por otra parte, si x es un vector propio de f 0 existe λ ∈ Rtal que

f 0(x) = f(x) = λx

por tanto, los vectores propios de f 0 son los vectores propios de f . Por hipótesisde inducción, existe una base u2, ...,un de vectores propios de f 0 ortonormal deF⊥. Por 2 del teorema anterior se sigue que u1,u2, ...,un es una base ortonormalde de E formada por vectores propios de f .

Corolario 53 Para toda matriz simétrica real A de orden n, existe una matrizP ortogonal real de orden tal que la matriz

B = P−1AP

es diagonal.Demostración: Es una consecuencia inmediata del teorema anterior y del coro-lario ???, teniendo en cuenta que los elementos de la diagonal de la matriz Bson los valores propios de A.

Reducción de las formas cuadráticas reales

Observación 96 Dada una forma bilineal simétrica f sobre un espacio vectori-al real de dimensión finita (o bien, la forma cuadrática asociada a q), degeneradao no, positiva o no, en una base ortonormal viene dada por

f(x,y) = XtAY (At = A)

Entonces, podemos asociarle de manera biyectiva un endomorfismo autoadjuntoo simétrico g, de manera que se cumpla

f(x,y) = x · g(y) = g(x) · ycuya matriz en la base considerada es A. De este modo, es lo mismo estudiar f(o bien q) o g o también A, matriz cuadrada real simétrica.

Sea E un espacio euclideo de dimensión n y f una forma bilineal simétricacualquiera sobre E. Si A es la matriz asociada a f o al endomorfismo autoadjuntoo simétrico respecto a una base ortonormal cualquiera. Entonces, en una baseortonormal formada por los vectores propios asociados a los valores propiosλ1, ..., λn de A, tenemos

f(x,y) =nXi=1

λixiyi

Page 235: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.4. PROCEDIMIENTOS 223

o bien, si q es la forma cuadrática asociada a f ,

q(x) =nXi=1

λix2i

Naturalmente, si rang f = r, cambiando si fuera preciso la numeración de losvectores de la base, obtenemos

f(x,y) =rX

i=1

λixiyi y q(x) =rX

i=1

λix2i

donde los λi 6= 0 (1 ≤ i ≤ r). Esta última operación se llama reducción de lasformas cuadráticas en una base ortonormal.

8.4. Procedimientos

Estos métodos se exponen sin demostración.

8.4.1. Reducción de las formas cuadráticas reales

Método reducción de Gauss

Este método directo se basa en considerar una forma cuadrática q como unpolinomio homogéneo de segundo grado p(x1, ..., xn). Se considera una formacuadrática q sobre Rn y se pone

q(x) = p(x1, ..., xn) =Xi

aiix2i + 2

Xi,j

aijxixj

Distinguimos dos casos:

1. Existe algún término x2i con coeficiente no nulo. Si, por ejemplo, es a11 6= 0,entonces escribimos

q(x) =1

a11[L(x)]

2+ q1(x)

donde L es una forma lineal que se expresará con la ayuda de

1

2· ∂

∂x1[q(x)]

y q1(x) = p(x2, ..., xn) es una forma cuadrática en las variables x2, ..., xn ala que se vuelve a aplicar el método, con lo que acabamos descomponiendoq en una suma o diferencia de cudrados.

Page 236: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

224CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

2. Todos los coeficientes de los términos x2i son nulos. Si, por ejemplo, esa12 6= 0, entonces escribimos

q(x) =2

a12[L1(x)L2(x)] + q1(x)

donde L1 y L2 son formas lineales que se expresarán con la ayuda

∂x1[q(x)] y

∂x2[q(x)]

y q1(x) = p(x3, ..., xn) es una forma cuadrática en las variables x3, ..., xna la que se repite el proceso indicado en 1 o aquí, según el caso. En estecaso, es conveniente observar que

4L1L2 = (L1 + L2)2 − (L1 − L2)

2

Observación 97 Es conveniente recordar en este caso la fórmula de Eulerpara polinomios homogéneos: p es un polinomio homogéneo de grado 2 si y sólosi

∂x1[p(x)] + · · ·+ ∂

∂xn[p(x)] = 2p(x)

Ejemplo 125 Determinar una forma reducida de la siguiente forma cuadráticade R3

q(x, y, z) = x2 + y2 + 3z2 + 4xy + 2xz + 2yz

Solución: Aplicaremos el método de reducción de Gauss, según caso (1):

q(x, y, z) = x2 + y2 + 3z2 + 4xy + 2xz + 2yz

= (x+ 2y + z)2 − 3y2 + 2z2 − 2yz= (x+ 2y + z)2 − 1

3(3y + z)2 +

7

3z2

obtenemos así la siguiente forma reducida de q

q(x0, y0, z0) = (x0)2 − 13(y0)2 +

7

3(z0)2

donde x0 = x+ 2y + zy0 = 3y + zz0 = z

Obsérvese que la forma cuadrática es indefinida y no degenerada.

Ejemplo 126 Determinar una forma reducida de la siguiente forma cuadráticade R4

q(x1, x2, x3, x4) = x1x2 + x2x3 + x1x4 + x2x4 + x3x4

Page 237: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.4. PROCEDIMIENTOS 225

Solución: Aplicaremos el método de reducción de Gauss, según caso (2):

q(x1, x2, x3, x4) = x1x2 + x2x3 + x1x4 + x2x4 + x3x4

= (x1 + x3 + x4)(x2 + x4)− x24

=1

4(x1 + x2 + x3 + 2x4)

2 − 14(x1 − x2 + x3)

2 − x24

obtenemos así la siguiente forma reducida de q

q(x01, x02, x

03, x

04) =

1

4(x01)

2 − 14(x02)

2 − (x03)2

donde x01 = x1 + x2 + x3 + 2x4x02 = x1 − x2 + x3x03 = x4x04 = 0

Transformaciones elementales

Realizando transformaciones elementales en la matriz A de la forma bilinealsimétrica asociada a la forma cuadrática, conseguiremos otra matriz D congru-ente con ella cuya forma es diagonal. De este modo, existe una matriz ortogonalP tal que

D = P tAP

Las columnas de P serán las coordenadas de los vectores que constituyen la baseortonormal respecto de la cual la matriz de la forma cuadrática es D.

Ejemplo 127 Sea q la forma cuadrática sobre R3 definida por

q(x, y, z) = x2 + y2 + z2 + 2yz

1. Determinar una forma reducida y la base correspondiente

2. ¿Es definida positiva?

Solución:

1. La matriz asociada a q en la base canónica de R3 es

A =

1 0 00 1 10 1 1

Page 238: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

226CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Aplicando transformaciones elementales en esta matriz obtenemos,

I3|A|I3 =1 0 00 1 00 0 1

1 0 00 1 10 1 1

1 0 00 1 00 0 1

∼ 1 0 00 1 00 0 1

1 0 00 1 10 0 0

1 0 0 F10 1 0 F20 −1 1 F3 − F2

∼ 1 0 00 1 −10 0 1

C1 C2 C3 − C21 0 00 1 00 0 0

1 0 00 1 00 −1 1

∼ P |D|P t

Por tanto, tenemos que

q(x0, y0, z0) = x02 + y02

y la base ortogonal respecto a q en la que se expresa es la siguiente

((1, 0, 0), (0, 1, 0), (0,−1, 1))

2. Es evidente que q no es definida positiva ya que los elementos de la diago-nal de la forma reducida son 1, 1 y 0, que no son estrictamente positivos.

Cálculo de la base ortonormal

Este método consiste en hallar una base ortonormal formada por los vec-tores propios de la matriz asociada a la forma cuadrática. Para ello, deberemoscalcular primero los valores propios correspondientes a partir de su polinomiocaracterístico.

Ejemplo 128 Sea q la forma cuadrática sobre R3 definida por

q(x, y, z) = x2 + y2 + z2 + 2yz

Determinar su forma reducida en una base ortonormal formada por los vectorespropios de su matriz asociada.Solución: La matriz A del endomorfismo simétrico f del espacio euclideo

ordinario R3 asociado a q coincide con la matriz de q en una base ortonormal,es decir, será

A =

1 0 00 1 10 1 1

Page 239: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.4. PROCEDIMIENTOS 227

en la base canónica. Puesto que f(1, 0, 0) = (1, 0, 0), es evidente que e1 =(1, 0, 0) es un vector propio de valor propio 1, y al ser f(e2) = f(e3) = (0, 1, 1),entonces detA = 0 y, por tanto, 0 es valor propio de A. Los vectores propios devalor propio 0 son los vectores del núcleo de f , es decir, 1 0 0

0 1 10 1 1

xyz

=

000

Por ejemplo, el vector (0, 1,−1) es un vector propio de valor propio 0 ya que 1 0 0

0 1 10 1 1

01−1

=

000

Como que la traza es un invariante frente a los cambios de base, deducimos que

trA = 1 + 0 + λ

1 + 1 + 1 = 1 + λ

2 = λ

Por tanto, los valores propios son 0,1 y 2. Puesto que los vectores propios de val-ores propios distintos son ortogonales, podemos calcular un vector propio (x, y, z)de valor propio 2 con la ayuda de las ecuaciones siguientes:

(x, y, z) · (1, 0, 0) = 0(x, y, z) · (0, 1,−1) = 0

¾es decir, x = 0 y y = z. Por tanto, podemos tomar como vector propio devalor propio 2 el vector (0, 1, 1). Normalizando los vectores de la base obtenidatenemos

u1 = (1, 0, 0)

u2 =(0, 1, 1)√

2= (0,

1√2,1√2)

u3 =(0, 1,−1)√

2= (0,

1√2,− 1√

2)

y, por tanto,

((1, 0, 0), (0,1√2,1√2), (0,

1√2,− 1√

2))

es una base ortonormal formada por vectores propios de f en la que las matricesde f y q coinciden; esta matriz es

D =

1 0 00 2 00 0 0

La forma reducida de q en dicha base es

q(x0, y0, z0) = x02 + 2y02

Page 240: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

228CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

8.4.2. Clasificación de formas cuadráticas reales

Consiste en determinar si la forma cuadrática es degenerada o no, positivao no, o indefinida. Existen varios métodos para hacer esto:

Invariantes

Consiste en determinar el rango r y la signatura (s, t), donde s es el númerode términos positivos que presenta la forma cuadrática q en una base ortonormaly t, el número de términos negativos. De este modo, tenemos

1. Si r = s = n, entonces q es definida positiva

2. Si r = t = n, entonces q es definida negativa

3. Si r = s < n, entonces q es positiva

4. Si r = t < n, entonces q es negativa

5. Si r 6= s y s 6= 0, entonces q es indefinidaEjemplo 129 Clasificar la siguiente forma cuadrática q de R5 que tiene pormatriz asociada

A =

2 1 0 0 01 2 0 0 00 0 2 0 00 0 0 2 10 0 0 1 2

en la base canónica. Para ello, hallar su rango y su signatura.Solución: Sabemos que en una base ortonormal el endomorfismo simétrico

asociado a q tiene la misma matriz A. El polinomio característico de A es

det(A− λI5) = −(λ− 2)(λ− 1)2(λ− 3)2

y, por tanto, los valores propios de A son 1 (doble),2 y 3 (doble). Por lo tanto,la forma reducida de q en la base ortonormal formada por vectores propios devalores propios 1,2 y 3 es

q(x, y, z, t, u) = x2 + y2 + 2z2 + 3t2 + 3u2

De aquí obtenemos que r = 5 y la signatura de q es (5, 0) y, en consecuencia,la forma cuadrática es definida positiva.

Diagonalización de la forma cuadrática

Supongamos que en una base ortonormal la forma cuadrática se reduce a

q(x) = a11x21 + · · ·+ annx

2n

entonces:

Page 241: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.4. PROCEDIMIENTOS 229

1. Si aii > 0 para todo i = 1, ..., n, entonces q es definida positiva

2. Si aii < 0 para todo i = 1, ..., n, entonces q es definida negativa

3. Si aii ≥ 0 para todo i = 1, ..., n, entonces q es positiva

4. Si aii ≤ 0 para todo i = 1, ..., n, entonces q es negativa

5. Si hay coefientes aii positivos y negativos, entonces q es indefinida

Ejemplo 130 Clasificar la siguiente forma cuadrática q de R4, calculando primerouna forma reducida de q

q(x, y, z, t) = 4x2 + 2y2 + z2 + 2t2 + 4xy + 2yz − 2yt

Solución: Emplearemos el método de Gauss para hallar una forma reducidade q,

q(x, y, z, t) = 4x2 + 2y2 + z2 + 2t2 + 4xy + 2yz − 2yt=

1

4(4x+ 2y)2 + y2 + z2 + 2t2 + 2yz − 2yt

=1

4(4x+ 2y)2 + (y + z − t)2 + t2 + 2zt

=1

4(4x+ 2y)2 + (y + z − t)2 + (t+ z)2 − z2

Por tanto, tenemos

q(x0, y0, z0, t0) =1

4(x0)2 + (y0)2 + (z0)2 − (t0)2

donde x0 = 4x+ 2yy0 = y + z − tz0 = t+ zt0 = z

Es claro que la forma cuadrática es indefinida y no degenerada.

Estudio de los menores principales

Si A = (aij) es la matriz simétrica real de orden n, asociada a la formacuadrática q, se llaman menores principales de A a los siguientes determi-nantes

Mp =

¯¯ a11 · · · a1p...

. . ....

ap1 · · · app

¯¯ (1 ≤ p ≤ n)

Page 242: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

230CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Se puede demostrar, que si Mp 6= 0 para todo p = 1, ..., n, entonces existe unamatriz diagonal

D =

c1 · · · 0...

. . ....

0 · · · cn

y una matriz triangular de la forma

T =

1 0 · · · 0t21 1 · · · 0...

.... . .

...tn1 tn2 · · · 1

tales que

A = TDtT

y

ck =Mk

Mk−1

Si rang A = r, se tiene c1 6= 0, ..., cr 6= 0, cr+1 = · · · = cn = 0 y A = TDtT siy sólo si Mp 6= 0 para 1 ≤ p ≤ r. Con este resultado, obtenemos el siguientecriterio para caracterizar una forma cuadrática q,

1. Si rang A = n, entonces se tiene

a) Si Mi > 0 para todo i = 1, ..., n, entonces q es definida positiva

b) Si M1 < 0,M2 > 0,M3 < 0, ... y así sucesivamente, entonces q esdefinida negativa

2. Si rang A = r, entonces se tiene

a) Si M1 > 0,M2 > 0, ...,Mr > 0,Mr+1 = · · · = Mn = 0, entonces q espositiva

b) Si M1 < 0,M2 > 0, ... y así sucesivamente, Mr+1 = · · · = Mn = 0,entonces q es negativa

Ejemplo 131 Clasificar la siguiente forma cuadrática sobre R3

q(x, y, z) = x2 + 2y2 + 3z2 + 2xy + 2xz + 4yz

Solución: La matriz de q en la base canónica es

A =

1 1 11 2 21 2 3

Page 243: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

8.4. PROCEDIMIENTOS 231

Calculemos los menores principales de A,

M1 = 1 > 0

M2 =

¯1 11 2

¯= 1 > 0

M3 =

¯¯ 1 1 11 2 21 2 3

¯¯ = 1 > 0

Por tanto, la forma cuadrática es definida positiva.

Ejemplo 132 Clasificar, según los valores a, la siguiente forma cuadrática qde R3 que tiene por matriz

A =

−1 a 0a −1 00 0 −3

Solución: Obsérvese en primer lugar que e3 = (0, 0, 1) es un vector propio

de valor propio −3 del endomorfismo simétrico asociado a q en la base canónica.Por tanto, q no puede ser definida positiva. Calculemos los menores principalesde A,

M1 = −1 < 0M2 =

¯ −1 aa −1

¯= 1− a2

M3 =

¯¯ −1 a 0a −1 00 0 −3

¯¯ = −3(1− a2)

Es claro que q es definida negativa si y sólo si a2 < 1, es decir, −1 < a < 1. Sia > 1 o a < −1, entonces q es indefinida y no degenerada, ya que no es definidapositiva. Por último, si a = 1 o a = −1, q es negativa y degenerada.

Estudio del signo de los valores propios

A partir del signo de los valores propios obtenidos como raíces del polinomiocaracterístico de la matriz asociada a la forma cuadrática q tenemos:

1. Si todos los valores propios son positivos, q es definida positiva; si, además,alguno es nulo, entonces q es positiva

2. Si todos los valores propios son negativos, q es definida negativa; si, además,alguno es nulo, entonces q es negativa

3. Si existen valores propios positivos y negativos, q es indefinida

Page 244: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

232CAPÍTULO 8. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Para tomar una decisión en estos casos sólo es necesario calcular el polinomiocaracterístico de la matriz A y averiguar los signos de las raíces por el teorema deDescartes. Este teorema afirma, que el números de raíces positivas, contada cadauna tantas veces como indique su multiplicidad, no supera el número de cambiosde signo que presenta la sucesión de coeficientes (supuestos todos reales), yambos números (número de raíces positivas y número de cambios de signo)tienen la misma paridad. Por ejemplo, el polinomio

p(x) = 7x5 − 5x3 + 2x2 + x− 1presenta la siguiente sucesión de signos

+ − + +−luego, el número de raíces positivas será 3 o 1. Para obtener el número de raícesnegativas basta poner −x en lugar de x, y de este modo, la sucesión de signoses

− + + − −luego, el número de raíces negativas será 2 o 0. En consecuencia, si este polinomioadmite todas sus raíces en R (esta situación se dará en nuestro caso ya que lamatriz es simétrica real y, por tanto, será siempre diagonalizable), tendrá 3raíces positivas y 2 de negativas.

Ejemplo 133 Clasificar la siguiente forma cuadrática de R3

q(x, y, z) = x2 + 2y2 + 3z2 + 2xy

Solución: La matriz de q en la base canónica de R3 es

A =

1 1 01 2 00 0 3

El polinomio característico del endomorfismo simétrico asociado a q en la basecanónica es

det(A− λI3) =

¯¯ 1− λ 1 01 2− λ 00 0 3− λ

¯¯

= −λ3 + 6λ2 − 10λ+ 3La sucesión de signos es

− + −+es decir, hay tres cambios de signo. Como A admite todos sus valores propiosen R, se sigue que los valores propios de A son todos positivos y, por tanto, qes definida positiva.

Page 245: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Parte II

Práctica

233

Page 246: Álgebra Lineal. Teoría y Práctica (Aprendes.com)
Page 247: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 9

Espacios vectoriales

9.1. Concepto de espacio vectorial

Ejercicio 2 Si K es el cuerpo de los enteros módulo 3, considérese el espaciovectorial de los vectores de orden n sobre K. ¿Cuánntos vectores hay en esteespacio? Siendo v un vector, ¿qué cabe decir de v+v+v? ¿Puede ser un vectorla suma de tres vectores iguales?Solución: Es claro que K = Z3 =

©0, 1, 2

ª, pues

m = {n ∈ Z : n−m ∈ (3)}

en donde (3) denota el conjunto de múltiplos de 3. Entonces,

0 ={n ∈ Z : n ∈ (3)} = (3)1 ={n ∈ Z : n− 1 = múltiplo de 3} = (3) + 12 ={n ∈ Z : n− 2 = múltiplo de 3} = (3) + 2

El espacio vectorial es Kn cuyos vectores son n−tuplas ordenadas de elementosde K. En este espacio hay pues 3n vectores.Para calcular v+ v+ v, haz click en cada paso:

v+ v+ v = (1 + 1 + 1)v= 0v ya que 3 ≡ 0 mod 3= 0

Por tanto, la suma de tres vectores iguales siempre es el vector cero. Enconsecuencia, sólo el vector cero es la suma de tres vectores iguales.

Ejercicio 3 Constrúyase un espacio vectorial con cuatro vectores, utilizando elcuerpo de los enteros módulo 2.

235

Page 248: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

236 CAPÍTULO 9. ESPACIOS VECTORIALES

Solución: Si K = Z2 =©0, 1ª, entonces K2 es un espacio vectorial de

22 = 4 elementos sobre K. La suma de vectores se define por la tabla siguiente:

+ (0, 0) (0, 1) (1, 0) (1, 1)(0, 0) (0, 0) (0, 1) (1, 0) (1, 1)(0, 1) (0, 1) (0, 0) (1, 1) (1, 0)(1, 0) (1, 0) (1, 1) (0, 0) (0, 1)(1, 1) (1, 1) (1, 0) (0, 1) (0, 0)

y el producto por escalares se define por la tabla siguiente

(0, 0) (0, 1) (1, 0) (1, 1)0 (0, 0) (0, 0) (0, 0) (0, 0)1 (0, 0) (0, 1) (1, 0) (1, 1)

En ambas tablas hemos escrito 0 y 1 en lugar de 0 y 1, respectivamente.

Ejercicio 4 Demostrar que el conjunto E de las aplicaciones f : R→ R puededotarse de manera natural de estructura de espacio vectorial real.Solución: Para cada par (f, g) ∈ E ×E definimos la aplicación f + g por

(f + g)(x) = f(x) + g(x)

y para cada par (λ, f) ∈ R×E definimos la aplicación λf por

(λf)(x) = λf(x)

Se cumplen los 10 axiomas para ser espacio vectorial real:(1) Para todo f, g ∈ E, f + g ∈ E ya que la adición de dos números reales

es un número real.(2) Para todo f, g, h ∈ E, (f + g) + h = f + (g + h), pues

((f + g) + h)(x) =

por definición(f + g)(x) + h(x) =

por definición(f(x) + g(x)) + h(x) =

por la propiedad asociativa de la adición en R

f(x) + (g(x) + h(x)) =

por definiciónf(x) + (g + h)(x) =

por definición(f + (g + h))(x)

Page 249: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.1. CONCEPTO DE ESPACIO VECTORIAL 237

(3) Para todo f, g ∈ E, f + g = g + f , pues

(f + g)(x) =

por definiciónf(x) + g(x) =

por la propiedad conmutativa de la adición en R

g(x) + f(x) =

por definición(g + f)(x)

(4) Existe la aplicación 0 constante igual 0 ∈ R, definida por 0(x) = 0, talque f + 0 = f para todo f ∈ E, pues

(f + 0)(x) =

por definiciónf(x) + 0(x) =

por definición de la aplicación constante igual 0

f(x) + 0 =

por ser 0 el cero de Rf(x)

(5) Para cada f ∈ E existe la aplicación −f ∈ E, definida por (−f)(x) =−f(x), tal que f + (−f) = 0, pues

(f + (−f))(x) =por definición

f(x) + (−f)(x) =por definición de −f

f(x) + (−f(x)) =por ser f(x) y −f(x) dos números reales opuestos

0 =

por definición de la aplicación constante igual 0

0(x)

(6) Para todo f ∈ E y λ ∈ R, λf ∈ E, ya que la multiplicación de dosnúmeros reales es un número real.(7) Para todo f, g ∈ E y λ ∈ R, λ(f + g) = λf + λg, pues

(λ(f + g)) (x) =

Page 250: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

238 CAPÍTULO 9. ESPACIOS VECTORIALES

por definiciónλ (f + g) (x) =

por definiciónλ (f(x) + g(x)) =

por la propiedad distributiva de la multiplicación respecto de la adición en R

λf(x) + λg(x) =

por definición(λf) (x) + (λg) (x) =

por definición(λf + λg) (x)

(8) Para todo f ∈ E y λ, µ ∈ R, (λ+ µ) f = λf + µf , pues

((λ+ µ) f) (x) =

por definición(λ+ µ) f(x) =

por la propiedad distributiva en R

λf(x) + µf(x) =

por definición(λf) (x) + (µf) (x) =

por definición(λf + µf) (x)

(9) Para todo f ∈ E y λ, µ ∈ R, (λµ) f = λ (µf), pues

((λµ) f) (x) =

por definición(λµ) f(x) =

por la propiedad asociativa de la multiplicación en R

λ (µf(x)) =

por definiciónλ ((µf) (x)) =

por definición(λ (µf)) (x)

(10) Para todo f ∈ E, 1f = f , pues

(1f) (x) =

Page 251: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.1. CONCEPTO DE ESPACIO VECTORIAL 239

por definición1f(x) =

por ser 1 la unidad en Rf(x)

Ejercicio 5 Estudiar si los conjuntos siguientes de números reales y las opera-ciones que se indican forman o no un espacio vectorial sobre el cuerpo de losnúmeros racionales: (a) A =

©x+ y

√5 : x, y ∈ Zª y las operaciones

(x1 + y1√5) + (x2 + y2

√5) = (x1 + x2) + (y1 + y2)

√5

λ(x+ y√5) = (λx) + (λy)

√5

(b) B =©x+ y

√5 : x, y ∈ Qª y las mismas operaciones anteriores.

Solución: (a) A no tiene estructura de espacio vectorial sobre Q, pues 1/2 ∈Q y 1 + 2

√5 ∈ A y, en cambio

1

2

³1 + 2

√5´=1

2+√5 /∈ A

porque 1/2 /∈ Z.(b) Para B y las mismas operaciones se cumplen los 10 axiomas:(1) Para todo x1 + y1

√5, x2 + y2

√5 ∈ B, (x1 + x2) + (y1 + y2)

√5 ∈ B, ya

que x1 + x2, y1 + y2 ∈ Q(2) Para todo x1 + y1

√5, x2 + y2

√5, x3 + y3

√5 ∈ B,³

x1 + y1√5´+h³x2 + y2

√5´+³x3 + y3

√5´i=

por definición ³x1 + y1

√5´+h(x2 + x3) + (y2 + y3)

√5i=

por definición(x1 + (x2 + x3)) + (y1 + (y2 + y3))

√5 =

por la propiedad asociativa de + en Q

((x1 + x2) + x3) + ((y1 + y2) + y3)√5 =

por definición h(x1 + x2) + (y1 + y2)

√5i+³x3 + y3

√5´=

por definición h³x1 + y1

√5´+³x2 + y2

√5´i+³x3 + y3

√5´

Page 252: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

240 CAPÍTULO 9. ESPACIOS VECTORIALES

(3) Para todo x1 + y1√5, x2 + y2

√5 ∈ B,³

x1 + y1√5´+³x2 + y2

√5´=

por definición(x1 + x2) + (y1 + y2)

√5 =

por la propiedad conmutativa de + en Q

(x2 + x1) + (y2 + y1)√5 =

por definición ³x2 + y2

√5´+³x1 + y1

√5´

(4) Existe 0 + 0√5 ∈ B tal que, para todo x1 + y1

√5 ∈ B³

0 + 0√5´+³x1 + y1

√5´=

por definición(0 + x1) + (0 + y1)

√5 =

por ser 0 el elemento neutro de + en Q

x1 + y1√5

(5) Para cada x1 + y1√5 ∈ B, existe (−x1) + (−y1)

√5 ∈ B tal que³

(−x1) + (−y1)√5´+³x1 + y1

√5´=

por definición((−x1) + x1) + ((−y1) + y1)

√5 =

por ser −x el opuesto de x por + en Q

0 + 0√5

(6) Para todo x1 + y1√5 ∈ B y λ ∈ Q, (λx1) + (λy1)

√5 ∈ B, ya que

λx1, λy1 ∈ Q(7) Para todo x1 + y1

√5, x2 + y2

√5 ∈ B y λ ∈ Q,

λh³x1 + y1

√5´+³x2 + y2

√5´i=

por definición

λh(x1 + x2) + (y1 + y2)

√5i=

por definición(λ(x1 + x2)) + (λ(y1 + y2))

√5 =

Page 253: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.1. CONCEPTO DE ESPACIO VECTORIAL 241

por la propiedad distributiva de la multiplicación respecto a la adición en Q

(λx1 + λx2) + (λy1 + λy2)√5 =

por definición ³λx1 + λy1

√5´+³λx2 + λy2

√5´=

por definiciónλ³x1 + y1

√5´+ λ

³x2 + y2

√5´

(8) Para todo x1 + y1√5 ∈ B y λ, µ ∈ Q,(λ+ µ)

³x1 + y1

√5´=

por definición((λ+ µ)x1) + ((λ+ µ) y1)

√5 =

por la propiedad distributiva de la multiplicación respecto a la adición en Q

(λx1 + µx1) + (λy1 + µy1)√5 =

por definición ³λx1 + λy1

√5´+³µx1 + µy1

√5´=

por definición

λ³x1 + y1

√5´+ µ

³x1 + y1

√5´

(9) Para todo x1 + y1√5 ∈ B y λ, µ ∈ Q,λhµ³x1 + y1

√5´i=

por definición

λ³µx1 + µy1

√5´=

por definiciónλ (µx1) + λ (µy1)

√5 =

por la propiedad asociativa de la multiplicación en Q

(λµ)x1 + (λµ) y1√5 =

por definición

(λµ)³x1 + y1

√5´

(10) Para todo x1 + y1√5 ∈ B,

1³x1 + y1

√5´=

por definición(1x1) + (1y1)

√5 =

por ser 1 la unidad de la multiplicación en Q

x1 + y1√5

Por tanto, B es un espacio vectorial sobre Q.

Page 254: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

242 CAPÍTULO 9. ESPACIOS VECTORIALES

9.2. Subespacios vectoriales

Ejercicio 6 Consideremos el espacio vectorial real F(R,R) de las funcionesreales de variable real. Averiguar cuáles de los siguientes subconjuntos son sube-spacios vectoriales: (a) S1 =

©f ∈ F(R,R) : f(x2) = (f(x))2ª; (b) S2 = {f ∈ F(R,R) : f(0) = f(2)};

(c) S3 = {f ∈ F(R,R) : f(2) = 3 + f(−1)}.Solución: (a) Si f, g ∈ S1, entonces

f(x2) = (f(x))2

g(x2) = (g(x))2

Por tanto,(f + g)(x2) =

por definición,f(x2) + g(x2) =

por hipótesis,(f(x))2 + (g(x))2

Por otra parte,((f + g)(x))2 =

por definición,(f(x) + g(x))2 =

desarrollando,(f(x))2 + 2f(x)g(x) + (g(x))2

En general,

(f(x))2 + (g(x))2 6= (f(x))2 + 2f(x)g(x) + (g(x))2

Por consiguiente, f + g /∈ S1 y, en consecuencia, S1 no es subespacio vectorial.(b) Si f, g ∈ S2, entonces

f(0) = f(2)

g(0) = g(2)

Por tanto,(f + g)(0) =

por definición,f(0) + g(0) =

por hipótesis,f(2) + g(2) =

por definición,(f + g)(2)

Page 255: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.2. SUBESPACIOS VECTORIALES 243

Por tanto, f + g ∈ S2. Además,

(λf)(0) =

por definición,λf(0) =

por hipótesis,λf(2) =

por definición,(λf)(2)

Por tanto, λf ∈ S2. Obsérvese que 0 ∈ S2, siendo 0 la función constante igual0. En consecuencia, S2 es subespacio vectorial.(c) Si f, g ∈ S2, entonces

f(2) = 3 + f(−1)g(2) = 3 + g(−1)

Por tanto,(f + g)(2) =

por definición,f(2) + g(2) =

por hipótesis y efectuando operaciones,

6 + f(−1) + g(−1) =

Por otra parte,3 + (f + g)(−1) =

por definición,3 + f(−1) + g(−1)

Es claro que6 + f(−1) + g(−1) 6= 3 + f(−1) + g(−1)

Por consiguiente, f + g /∈ S3 y, en consecuencia, S3 no es subespacio vectorial.

Ejercicio 7 En el espacio vectorial R4 consideremos el conjunto S = {(x, y, z, t) ∈R4 : 2x+ 3y + z − 2t = 0}. Probar que S es un subespacio vectorial de R4.Solución: Si u = (x1, y1, z1, t1),v = (x2, y2, z2, t2) ∈ S, entonces

2x1 + 3y1 + z1 − 2t1 = 0

2x2 + 3y2 + z2 − 2t2 = 0

Page 256: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

244 CAPÍTULO 9. ESPACIOS VECTORIALES

Por definición,

u+ v = (x1 + x2, y1 + y2, z1 + z2, t1 + t2)

Además se cumple,

2(x1 + x2) + 3(y1 + y2) + (z1 + z2)− 2(t1 + t2) =

efectuando operaciones,

2x1 + 3y1 + z1 − 2t1 + 2x2 + 3y2 + z2 − 2t2 =

por hipotesis,0 + 0 = 0

Por tanto, u+ v ∈ S.Si u = (x1, y1, z1, t1), λ ∈ R, entonces por definición se tiene

λu = u = (λx1, λy1, λz1, λt1)

Además se cumple,

2(λx1) + 3(λy1) + (λz1)− 2(λt1) =

efectuando operaciones,

λ(2x1 + 3y1 + z1 − 2t1) =

por hipótesis,λ0 = 0

Por tanto, λu ∈ S. Obsérvese que 0 = (0, 0, 0, 0) ∈ S.Por consiguiente, S es un subespacio vectorial de R4.

Ejercicio 8 Estudiar si los siguientes conjuntos son subespacios de R4. (a)S1 = {(x, y, z, t) ∈ R4 : xy = 0}; (b) S2 = {(x, y, z, t) ∈ R4 : x = 1}; (c)S3 = {(x, y, z, t) ∈ R4 : x2 + y2 + z2 + t2 = 0}.Solución: (a) Es claro que u = (1, 0, 0, 0),v = (0, 1, 0, 0) ∈ S1 pero u+v =

(1, 1, 0, 0) /∈ S1. Por tanto, S1 no es subespacio vectorial.(b) Es claro que 0 = (0, 0, 0, 0) /∈ S2. Por tanto, S2 no es subespacio vectorial.(c) La ecuación

x2 + y2 + z2 + t2 = 0

sólo es válida en R si x = y = z = t = 0. Por tanto, S3 = {0} y, en consecuen-cia, es subespacio vectorial de R4.

Page 257: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.3. INTERSECCIÓN DE SUBESPACIOS VECTORIALES 245

9.3. Intersección de subespacios vectorialesEjercicio 9 Dados los subespacios S = {(x, y, z) ∈ R3 : x + y + z = 0} yT = {(λ, λ+ µ, λ− µ) : λ, µ ∈ R} de R3. Determinar el subespacio intersecciónS ∩ T y expresarlo paramétricamente.Solución: En primer lugar debemos observar que el subespacio T viene dado

en forma paramétrica. Cualquier vector v = (x, y, z) de T debe cumplir

x = λy = λ+ µz = λ− µ

en donde λ, µ ∈ R. De estas ecuaciones se deduce

y + z = 2λ

y, de aquí, se obtieney + z = 2x

es decir2x− y − z = 0

Por tanto, podemos escribir

T = {(x, y, z) ∈ R3 : 2x− y − z = 0}De este modo, es evidente que

S ∩ T = {(x, y, z) ∈ R3 : x+ y + z = 0 y 2x− y − z = 0}Para expresarlo en forma paramétrica debemos resolver el sistema lineal formadopor las dos ecuaciones definidoras del subespacio:

x+ y + z = 02x− y − z = 0

¾Sumando las dos ecuaciones se obtiene

x = 0

y, por tanto,y = −z

Si ahora hacemos z = λ, con λ ∈ R, entoncesx = 0y = −λz = λ

y, en consecuencia

S ∩ T = {(0,−λ, λ) : λ ∈ R}

Page 258: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

246 CAPÍTULO 9. ESPACIOS VECTORIALES

9.4. Subespacio engendrado por un conjunto

Ejercicio 10 Dado el conjunto A = {(1, 1, 1), (1, 0,−1)} de vectores de R3.Hallar el subespacio engendrado por A.Solución: Es claro que por construcción

hAi = {λ(1, 1, 1) + µ(1, 0,−1) : λ, µ ∈ R}

Por tanto, si (x, y, z) ∈ hAi, entonces deben existir λ, µ ∈ R tales que

(x, y, z) = λ(1, 1, 1) + µ(1, 0,−1)

Por tanto, efectuando operaciones

(x, y, z) = (λ+ µ, λ, λ− µ)

Teniendo presente que dos vectores son iguales si tienen las mismas compo-nentes, se tiene

x = λ+ µy = λz = λ− µ

Sumando las ecuaciones, primera y tercera, se obtiene

x+ z = 2λ

Y de la segunda, se obtienex+ z = 2y

Por consiguiente

hAi = {(x, y, z) ∈ R3 : x− 2y + z = 0}

9.5. Suma de subespacios vectoriales

Ejercicio 11 En el espacio vectorial R4 se considera el subespacio S engendradopor los vectores u1 = (1,−2, 0, 3),u2 = (2, 1,−2, 4),u3 = (0, 2,−1, 1), y elsubespacio T engendrado por v1 = (1, 0,−1, 4),v2 = (1, 1,−1, 0). Calcular S+Ty determinar si la suma es o no directa.Solución: Un vector (x, y, z, t) de S+ T debe cumplir

(x, y, z, t) = α(1,−2, 0, 3)+β(2, 1,−2, 4)+γ(0, 2,−1, 1)+λ(1, 0,−1, 4)+µ(1, 1,−1, 0)

Efectuando operaciones, se tiene

(x, y, z, t) = (α+2β+λ+µ,−2α+β+2γ+µ,−2β−γ−λ−µ, 3α+4β+γ+4λ)

Page 259: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.6. COMBINACIONES LINEALES 247

es decir,E1 : x = α+ 2β + λ+ µE2 : y = −2α+ β + 2γ + µE3 : z = −2β − γ − λ− µE4 : t = 3α+ 4β + γ + 4λ

De aquí, por sucesivas reducciones, se obtiene

5E1 + 4E2 + 9E3 +E4 : 5x+ 4y + 9z + t = 0

Por consiguiente,

S+ T = {(x, y, z, t) ∈ R4 : 5x+ 4y + 9z + t = 0}Obsérvese que se cumple

v1 = u1 + u3

Por tanto,v1 ∈ S ∩ T

y, en consecuencia,S ∩ T 6= {0}

y la suma no es directa.

9.6. Combinaciones linealesEjercicio 12 Escribir el vector w = (1, 1, 1) como una combinación lineal delos vectores del sistema S = (v1,v2,v3) de R3, siendo v1 = (1, 2, 3),v2 =(0, 1, 2),v3 = (−1, 0, 1).Solución: Es necesario encontrar escalares λ1, λ2, λ3 tales que

w = λ1v1 + λ2v2 + λ3v3

o bien,(1, 1, 1) = λ1(1, 2, 3) + λ2(0, 1, 2) + λ3(−1, 0, 1)

o bien,(1, 1, 1) = (λ1 − λ3, 2λ1 + λ2, 3λ1 + 2λ2 + λ3)

Igualando componentes, se obtiene el siguiente sistema lineal

λ1 − λ3 = 12λ1 + λ2 = 1

3λ1 + 2λ2 + λ3 = 1

cuya soluciones son, λ3 = λ1 − 1, λ2 = −2λ1 + 1, λ1 = λ1. Por ejemplo, paraobtener una solucion particular, puede tomarse λ1 = 1. Entonces λ2 = −1 yλ3 = 0, y se tiene

w = 1v1 + (−1)v2 + 0v3 = v1 − v2Otras elecciones para λ1 producen otras maneras de escribir w como una com-binación lineal de S.

Page 260: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

248 CAPÍTULO 9. ESPACIOS VECTORIALES

Ejercicio 13 Escribir el polinomio p(x) = 2+6x2 como una combinación linealde los polinomios p1(x) = 2+x+4x2, p2(x) = 1−x+3x2, p3(x) = 3+2x+5x

2

de R2 [x].Solución: Es preciso hallar escalares λ1, λ2, λ3 tales que

p(x) = λ1p1(x) + λ2p2(x) + λ3p3(x)

es decir,

2 + 6x2 = λ1(2 + x+ 4x2) + λ2(1− x+ 3x2) + λ3(3 + 2x+ 5x2)

efectuando operaciones se obtiene

2 + 6x2 = (2λ1 + λ2 + 3λ3) + (λ1 − λ2 + 2λ3)x+ (4λ1 + 3λ2 + 5λ3)x2

Por el prinicipio de identidad de polinomios, se obtiene el siguiente sistemalineal

2λ1 + λ2 + 3λ3 = 2λ1 − λ2 + 2λ3 = 0

4λ1 + 3λ2 + 5λ3 = 6

cuya solución es: λ1 = 4, λ3 = −2, λ2 = 0. Por tanto,

p(x) = 4p1(x) + 0p2(x) + (−2)p3(x) = 4p1(x)− 2p3(x)

Ejercicio 14 Averiguar si la matriz

A =

µ6 30 8

¶es o no una combinación lineal de las matrices

M1 =

µ1 2−1 3

¶,M2 =

µ0 12 4

¶,M3 =

µ4 −20 −2

¶deM2(R).Solución: Se trata de encontrar λ1, λ2, λ3 ∈ R tales que

A = λ1M1 + λ2M2 + λ3M3

es decir µ6 30 8

¶= λ1

µ1 2−1 3

¶+ λ2

µ0 12 4

¶+ λ3

µ4 −20 −2

¶Efectuando operaciones se obtieneµ

6 30 8

¶=

µλ1 + 4λ3 2λ1 + λ2 − 2λ3−λ1 + 2λ2 3λ1 + 4λ2 − 2λ3

Page 261: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.7. CLAUSURA LINEAL 249

De esta igualdad de matrices se obtiene el siguiente sistema

λ1 + 4λ3 = 62λ1 + λ2 − 2λ3 = 3−λ1 + 2λ2 = 0

3λ1 + 4λ2 − 2λ3 = 8

cuya solución es: λ1 = 2, λ3 = 1, λ2 = 1. Por tanto,

A = 2M1 +M2 +M3

9.7. Clausura lineal

Ejercicio 15 Dados los vectores v1 = (3, 1,−1),v2 = (−1, 2, 0),v3 = (0, 7,−1)de R3, encontrar a para que el vector w = (1, 5, a) pertenezca a la clausura linealde dichos vectores.Solución: Hemos de encontrar a de manera que se cumpla

w ∈ hv1,v2,v3i

es decirw = λ1v1 + λ2v2 + λ3v3

para ciertos λ1, λ2, λ3 ∈ R. Por tanto tenemos

(1, 5, a) = λ1(3, 1,−1) + λ2(−1, 2, 0) + λ3(0, 7,−1)

es decir(1, 5, a) = (3λ1 − λ2, λ1 + 2λ2 + 7λ3,−λ1 − λ3)

Por tanto, se tiene el sistema

3λ1 − λ2 = 1λ1 + 2λ2 + 7λ3 = 5

−λ1 − λ3 = a

De la primera ecuación se tiene λ2 = 3λ1− 1. Sustituyendo este resultado en lasegunda se obtiene λ3 = 1−λ1. Sustituyendo este último resultado en la terceraecuación se obtiene a = −1.

Ejercicio 16 Hallar un sistema homogéneo de ecuaciones lineales que tengacomo subespacio solución F = h(1, 1, 1, 1), (2, 1, 0, 3)i.Solución: Consideremos una solución arbitraria de este sistema (x, y, z, t).

Entonces deben existir α1, α2 ∈ R tales que

(x, y, z, t) = α1(1, 1, 1, 1) + α2(2, 1, 0, 3)

Page 262: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

250 CAPÍTULO 9. ESPACIOS VECTORIALES

es decir,(x, y, z, t) = (α1 + 2α2, α1 + α2, α1, α1 + 3α2)

Por tanto, el siguiente sistema

α1 + 2α2 = xα1 + α2 = y

α1 = zα1 + 3α2 = t

debe ser compatible. Sustituyendo el valor de α1 = z en las ecuaciones delsistema se tiene

2α2 = x− zα2 = y − z3α2 = t− z

Por tanto, debe cumplirse

x− z

2= y − z =

t− z

3

o bienx− 2y + z = 03y − 2z − t = 0

¾Obsérvese además que hemos demostrado que

F =©(x, y, z, t) ∈ R4 : x− 2y + z = 0 y 3y − 2z − t = 0

ª

Ejercicio 17 Hallar un sistema generador S del espacio vectorial de las solu-ciones del siguiente sistema lineal homogéneo:

x− y = 02x+ y + z = 0x+ y − z = 0

Suponer que los coeficientes del sistema son elementos de: (a) R; (b) Z2; (c)Z5.Solución: En cualquiera de los tres casos es preciso resolver el sistema.(a) En este caso, su solución es: x = y = z = 0. Por tanto, S = ((0, 0, 0)).(b) En este caso, el sistema se escribe como sigue

[x] + [y]) = [0][y] + [z] = [0]

[x] + [y] + [z] = [0]

(mod 2)

cuya solución es [x] = [y] = [z] = [0]. Por tanto, S = (([0] , [0] , [0])).

Page 263: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.7. CLAUSURA LINEAL 251

(c) En este caso, el sistema se escribe como sigue

[x] + [4y]) = [0][2x] + [y] + [z] = [0][x] + [y] + [4z] = [0]

(mod 5)

De la suma de las dos primeras ecuaciones, multiplicando la primera por [3], seobtiene

[3y] + [z] = [0]

es decir,[z] = [2y]

De la suma de la segunda y tercera, multiplicando la tercera por [3], se obtiene

[4y] + [3z] = [0]

es decir, multiplicando por [2],

[3y] + [z] = [0]

o sea, obtenemos que [z] = [2y]. Por tanto, las soluciones del sistema son:[x] =[y] , [z] = [2y] , [y] = [y]. Cualquier solución del sistema es de la forma ([y] , [y] , [2y])con [y] ∈ Z5, es decir,

([y] , [y] , [2y]) = [y] ([1] , [1] , [2])

Por consiguiente, S = (([1] , [1] , [2])).Ejercicio 18 En el espacio vectorial R3 se consideran los subespacios vectori-ales

S1 = {(x, y, z) ∈ R3 : x+ y + z = 0}S2 = {(λ, 2λ, 3λ) : λ ∈ R}

Demostrar que R3 = S1 ⊕ S2.Solución: Primero debemos comprobar que S1 ∩S2 = {(0, 0, 0)} y, segundo,

que S1 + S2 = R3. En efecto, si u = (x, y, z) ∈ S1 ∩ S2, entonces se cumplex+ y + z = 0, pues u ∈ S1, y = 2x, z = 3x ya que u ∈ S2. Por tanto,

x+ 2x+ 3x = 5x = 0

o sea x = 0; de donde, y = z = 0. En consecuencia, S1 ∩ S2 = {(0, 0, 0)}.Consideremos u = (x, y, z) ∈ R3, debemos encontrar v ∈ S1 y w ∈ S2 tales que

u = v+w

Es claro, por otra parte, que si (x, y, z) ∈ S1, entonces z = −x− y. Por tanto,

(x, y,−x− y) = x(1, 0,−1) + y(0, 1,−1)

Page 264: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

252 CAPÍTULO 9. ESPACIOS VECTORIALES

y, en consecuencia,S1 = h(1, 0,−1), (0, 1,−1)i

Por tanto, si v ∈ S1, entonces v = α(1, 0,−1) + β(0, 1,−1) y, si w ∈ S2,entonces w = (λ, 2λ, 3λ). Entonces

(x, y, z) = α(1, 0,−1) + β(0, 1,−1) + λ(1, 2, 3)

o bienα+ λ = xβ + 2λ = y

−α− β + 3λ = z

Conocidos x, y, z, y resolviendo el sistema, se obtiene

λ =x+ y + z

6

luego

α =5x− y − z

6

β =−x+ 2y − z

3

Por consiguiente, S1 + S2 = R3. En consecuencia, R3 = S1 ⊕ S2. Obsérveseademás que los dos subespacios son suplementarios.

9.8. Sistemas equivalentesEjercicio 19 Consideremos los sistemas S1 = (p1,p2,p3,p4) y S2 = (q1,q2,q3)del espacio vectorial R2 [x], siendo p1 = 2 + x2,p2 = 1 + 2x + x2,p3 =2x+ x2,p4 = 1 + x,q1 = 1,q2 = x,q3 = x2. Demostrar que son equivalentes.Solución: Para demostrarlo veremos que los vectores de cada sistema son

combinación lineal de los del otro. En efecto, es fácil encontrar las siguientesrelaciones

q1 = p2 − p3q2 = −p2 + p3 + p4q3 = p1 − 2p2 + 2p3

y

p1 = 2q1 + q3

p2 = q1 + 2q2 + q3

p3 = 2q2 + q3

p4 = q1 + q2

Por tanto, S1 ∼ S2.

Page 265: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.9. DEPENDENCIA E INDEPENDENCIA LINEAL 253

9.9. Dependencia e independencia lineal

Ejercicio 20 ¿Cuáles de las siguientes familias finitas de elementos de F(R,R)son libres? (a) (f1, f2, f3), definidas como sigue: f1(x) = sinx, f2(x) = cosx, f3(x) =1; (b) (g1, g2), definidas por g1(x) = ex, g2(x) = ex+2; (c) (h1, h2, h3), definidascomo h1(x) = 2, h2(x) = x + 2, h3(x) = x2; (d) (j1, j2, j3), j1(x) = 0, j2(x) =1, j3(x) = x+ 1.Solución: (a) Consideremos

α1f1 + α2f2 + α3f3 = 0

Entonces, para todo x ∈ R se cumple

α1 sinx+ α2 cosx+ α31 = 0

En particular, para x = 0, x = π/2, x = π, se tiene

α2 + α3 = 0α1 + α3 = 0−α2 + α3 = 0

cuya solución es α3 = 0, α2 = 0, α1 = 0. Por tanto, la familia es libre.(b) Consideremos

α1g1 + α2g2 = 0

Entonces, para todo x ∈ R se cumple

α1ex + α2e

x+2 = 0

es decir,(α1 + α2e

2)ex = 0

De dondeα1 = −e2α2

Tomando α2 = 1 y α1 = −e2, se tiene

−e2g1 + g2 = 0

Por tanto, la familia es ligada.(c) Consideremos

α1h1 + α2h2 + α3h3 = 0

Entonces, para todo x ∈ R, se cumple

α12 + α2(x+ 2) + α3x2 = 0

es decir,2(α1 + α2) + α2x+ α3x

2 = 0

Page 266: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

254 CAPÍTULO 9. ESPACIOS VECTORIALES

De donde se obtiene2(α1 + α2) = 0

α2 = 0α3 = 0

cuya solución es α1 = α2 = α3 = 0. Por tanto, la familia es libre.(d) La familia es ligada ya que contiene el vector cero.

Ejercicio 21 Hallar los valores de a y b para que los vectores (3, 2, a, 5), (2,−3, 5, a), (0, 13, b, 7)de R4 sean linealmente dependientes.Solución: Considermos

λ1(3, 2, a, 5) + λ2(2,−3, 5, a) + λ3(0, 13, b, 7) = (0, 0, 0, 0)

es decir,

(3λ1 + 2λ2, 2λ1 − 3λ2 + 13λ3, aλ1 + 5λ2 + bλ3, 5λ1 + aλ2 + 7λ3) = (0, 0, 0, 0)

Por tanto,3λ1 + 2λ2 = 0

2λ1 − 3λ2 + 13λ3 = 0aλ1 + 5λ2 + bλ3 = 05λ1 + aλ2 + 7λ3 = 0

De las dos primeras ecuaciones se obtiene

λ2 = −32λ1 y λ3 = −1

2λ1

Sustituyendo estos resultados en las dos siguientes y suponiendo que λ1 6= 0 (yaque de lo contrario serían linealmente independientes) se obtiene

2a− b = 15−3a = −3

¾de donde resulta

a = 1 y b = −13

Ejercicio 22 En el espacio vectorial de los números reales R sobre el cuerpode los números racionales Q, probar que los vectores 1,

√2,√5 son linealmente

independientes.Solución: Consideremos

α11 + α2√2 + α3

√5 = 0

con α1, α2, α3 ∈ Q. Si fuera α1 6= 0, entonces

α1 = −α2√2− α3

√5

Page 267: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.10. BASES DE UN ESPACIO VECTORIAL DE DIMENSIÓN FINITA 255

es decir, −α2√2 − α3

√5 sería un número racional, lo que no es posible. Por

tanto, α1 = 0. De aquí se obtiene

α2√2 + α3

√5 = 0

Si fuera α2 6= 0, entoncesα2 = −

√5√2α3

es decir, (−√5/√2)α3 sería un número racional, lo que no es posible. Por tanto,α2 = α3 = 0. En consecuencia, los vectores son linealmente independientes.

9.10. Bases de un espacio vectorial de dimensiónfinita

Ejercicio 23 Demostrar que los vectores u1 = (1, 1, 1),u2 = (1, 1, 2) y u3 =(1, 2, 3) forman una base de R3, y encontrar las coordenadas del vector v =(6, 9, 14) en dicha base.Solución: Sabemos que la dimensión del espacio vectorial es tres. Por tanto,

los vectores formarán una base si son linealmente independientes. Para ver esto,consideremos

λ1(1, 1, 1) + λ2(1, 1, 2) + λ3(1, 2, 3) = (0, 0, 0)

es decir,

(λ1 + λ2 + λ3, λ1 + λ2 + 2λ3, λ1 + 2λ2 + 3λ3) = (0, 0, 0)

Por tanto, se obtiene el sistema siguiente

λ1 + λ2 + λ3 = 0λ1 + λ2 + 2λ3 = 0λ1 + 2λ2 + 3λ3 = 0

cuya solución es λ1 = λ2 = λ3 = 0. Por tanto, los vectores son linealmenteindependientes y, en consecuencia, forman base. Las coordenadas (x, y, z) de ven esta base cumplen

x(1, 1, 1) + y(1, 1, 2) + z(1, 2, 3) = (6, 9, 14)

es decir,x+ y + z = 6x+ y + 2z = 9

x+ 2y + 3z = 14

cuya solución es x = 1, y = 2 y z = 3. Por consiguiente, las coordenadas de vson (1, 2, 3) en la base en cuestión.

Page 268: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

256 CAPÍTULO 9. ESPACIOS VECTORIALES

Ejercicio 24 En el espacio vectorial F(R,R), se consideran las funciones f1, f2, f3, f4, f5definidas como sigue: f1(x) = 1, f2(x) = sin2x, f3(x) = cos2x, f4(x) = sin2x, f5(x) =cos2x. Se pide: (a) estudiar su dependencia o independencia lineal; (b) deter-minar la dimensión y una base del subespacio F = hf1, f2, f3, f4, f5i; (c) calcu-lar las coordenadas de f y g con respecto a la base encontrada en (b), siendof(x) = cos2x+ sin2x y g(x) = cosx.Solución: (a) Los vectores son linealmente dependientes, ya que se tiene

f3 =1

2f1 +

1

2f5

f2 =1

2f1 − 1

2f5

pues, cos2x = 12(1 + cos2x) y sin2x = 1

2(1− cos2x).(b) Por las relaciones anteriores y, aplicando transformaciones elementales,

se tiene(f1, f2, f3, f4, f5) ∼ (f1, f4, f5)

Por tanto,F = hf1, f2, f3, f4, f5i = hf1, f4, f5i

Vamos a probar que f1, f4, f5 son linealmente independientes. Consideremos

λ1f1 + λ2f4 + λ3f5 = 0

es decir, para todo x ∈ R se cumpleλ11 + λ2sin2x+ λ3cos2x = 0

Tomando x = 0, x = π/4, x = π/2 se tiene el sistema siguiente

λ1 + λ3 = 0λ1 + λ2 = 0λ1 − λ3 = 0

cuya solución es λ1 = λ2 = λ3 = 0. En consecuencia, dimF = 3 y (f1, f4, f5)es una base de F.(c) Es claro que

f = 0f1 + 0f4 + 1f5

Por tanto, las coordenadas de f en la base considerada son (0, 0, 1). Por otraparte, se cumple g /∈ F ya que de lo contrario se tendría para todo x ∈ R

cosx = α+ βsin2x+ γcos2x

Tomando x = 0 y x = π, se obtendría

1 = α+ γ

−1 = α+ γ

lo que es una contradicción. Por consiguiente, no tiene sentido hablar de coor-denadas en F.

Page 269: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.11. DIMENSIÓN DE UN SUBESPACIO VECTORIAL 257

9.11. Dimensión de un subespacio vectorialEjercicio 25 Consideremos el espacio vectorial Rn [x] de los polinomios concoeficientes reales de grado menor o igual que n. Se pide: (a) demostrar que elpolinomio xn y sus n primeras derivadas forman una base de Rn [x]; (b) estudiarsi los vectores p1(x) = 1 + 3x+ 5x2, p2(x) = −1 + 2x2, p3(x) = 3 + 3x+ x2 sono no linealmente independientes; (c) sean r1(x) = 1 + x2, r2(x) = 1 − x2 yS1 = hr1(x), r2(x)i, estudiar si p(x) y r(x) pertenecen a S1, siendo p(x) =1 + 5x2, r(x) = 1 + x; (d) sea S2 = hp1(x), p2(x), p3(x)i, calcular S1 ∩ S2 yS1 + S2.Solución: (a) Se cumple:

f0(x) = xn

f1(x) = nxn−1

f2(x) = n(n− 1)xn−2...

fn−1(x) = n(n− 1)(n− 2) · · · 2xfn(x) = n!

Hay que probar que (f0(x), f1(x), ..., fn(x)) es una base de Rn [x]. Cualquierpolinomio p(x) de Rn [x] es de la forma

p(x) = a0 + a1x+ · · ·+ an−1xn−1 + anxn

expresándose también como sigue:

p(x) =aon!fn(x) +

a1n(n− 1) · · · 2fn−1(x) + · · ·+

an−1n

f1(x) + anf0(x)

es decir, p(x) es combinación lineal de f0(x), f1(x), ..., fn(x). Por otra parte,sabemos que dimRn [x] = n+1. Por tanto, (f0(x), f1(x), ..., fn(x)) es una base.(b) Obsérvese que p3(x) = p1(x)− p2(x). Por tanto, son linealmente depen-

dientes.(c) Para que p(x) ∈ hr1(x), r2(x)i deben existir λ1, λ2 ∈ R tales que

p(x) = λ1r1(x) + λ2r2(x)

es decir,1 + 5x2 = λ1(1 + x2) + λ2(1− x2)

De aquí se obtiene el sistema

λ1 + λ2 = 1λ1 − λ2 = 5

¾cuya solución es λ2 = −2, λ1 = 3. Por tanto, p(x) ∈ S1. Del mismo modo,r(x) ∈ hr1(x), r2(x)i debe cumplirse

r(x) = µ1r1(x) + µ2r2(x)

Page 270: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

258 CAPÍTULO 9. ESPACIOS VECTORIALES

es decir,1 + x = µ1(1 + x2) + µ2(1− x2)

o bien,1 + x = µ1 + µ2 + 0x+ (µ1 − µ2)x

2

lo que no es posible, ya que r(x) tiene coeficiente 1 en x y, en cambio, µ1r1(x)+µ2r2(x) tiene coeficiente 0 en x. Por tanto, r(x) /∈ S1.(d) Por (b) se tiene S2 = hp1(x), p2(x)i y dimS2 = 2. Por otro lado,

(r1(x), r2(x)) es una base de S1 y dimS1 = 2. Para determinar p(x) de maneraque p(x) ∈ S1 ∩ S2 debe cumplirse

p(x) = αp1(x) + βp2(x) y p(x) = λr1(x) + µr2(x)

es decir,

α(1 + 3x+ 5x2) + β(−1 + 2x2) = λ(1 + x2) + µ(1− x2)

o bien,α− β + 3αx+ (5α+ 2β)x2 = λ+ µ+ (λ− µ)x2

Por tanto, tenemos el siguiente sistema

α− β = λ+ µ3α = 0

5α+ 2β = λ− µ

cuya solución es α = 0, λ = 1

2β, µ = −32β. Tomando β = 1, un vector de laintersección es −1 + 2x2. Por consiguiente, S1 ∩ S2 =

­−1 + 2x2® y dim (S1 ∩S2) = 1. Entonces

dim(S1 + S2) = dimS1 + dimS2 − dim(S1 ∩ S2) = 2 + 2− 1 = 3Es claro que S1+S2 = hp1(x), p2(x), r1(x), r2(x)i. Ahora bien, sólo tres de estosvectores son linealmente independientes. Para encontrarlos, consideremos

α(1 + 3x+ 5x2) + β(−1 + 2x2) + γ(1 + x2) + δ(1− x2) = 0

de donde se obtiene

(α− β + γ + δ) + 3αx+ (5α+ 2β + γ − δ)x2 = 0

Por tanto, debe cumplirse

α− β + γ + δ = 03α = 0

5α+ 2β + γ − δ = 0

De aquí se obtiene, α = 0, β = −2γ y γ = δ. Tomando, por ejemplo, δ = 1,entonces β = −2 y γ = 1 y, en consecuencia, tenemos

r2(x) = 2p2(x)− r1(x)

es decir, r2(x) depende linealmente de los otros. Por tanto, (p1(x), p2(x), r1(x))es una base de S1 + S2.

Page 271: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.12. ESPACIO VECTORIAL COCIENTE 259

9.12. Espacio vectorial cocienteEjercicio 26 Sea E un espacio vectorial de dimensión 3 y (e1.e2, e3) una base deE. Sea F el subespacio engendrado por (v1, v2) siendo v1 = e1−e2 y v2 = e1+e2.Hallar una base del espacio vectorial cociente E/F.Solución: Es claro que el sistema (v1, v2) es libre. Por tanto, dimF = 2.

En consecuencia,

dimE/F = dimE− dimF = 3− 2 = 1

Para hallar una base de E/F basta hallar un vector no nulo de E/F, es decir,una clase no nula. Si [v] 6= [0], entonces v /∈ F. Por tanto, v puede ser cualquiervector que sea linealmente independiente con v1 y v2; por ejemplo, podemostomar e3. Por consiguiente, (e3 + F) es una base de E/F.

Ejercicio 27 Obtener una base del espacio vectorial cociente R4 módulo el sube-spacio

F = h(1, 0, 1, 1), (1, 2, 1, 1), (2, 2, 2, 2)iSolución: Observemos que

(2, 2, 2, 2) = (1, 0, 1, 1) + (1, 2, 1, 1)

Por tanto, dimF = 2. De aquí,

dimR4/F = 4− 2 = 2

Para obtener una base de R4/F basta con hallar una base del subespacio suple-mentario de F respecto de R4. Obtendremos esta base completando la base de F auna base de R4. Sea (e1, e2, e3, e4) la base canónica de R4 y v1 = (1, 0, 1, 1), v2 =(1, 2, 1, 1). Observemos que

e1 = v1 − e3 − e4

Por tanto, (v1, e2, e3, e4) es una base de R4. Observemos también que

e2 = −12v1 +

1

2v2

Por tanto, (v1, v2, e3, e4) es una base de R4. En consecuencia, (e3, e4) es unabase del subespacio suplementario de F. Por consiguiente, (e3+F, e2+F) es unabase de E/F.

9.13. Rango de un sistema de vectoresEjercicio 28 Determinar, según los valores de α, el rango del sistema S =(v1,v2,v3) de vectores de R3, siendo v1 = (α,−1,−1),v2 = (−1,−α,−1),v3 =(−1,−1, α).

Page 272: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

260 CAPÍTULO 9. ESPACIOS VECTORIALES

Solución: Tomando la base canónica de R3, escribimos las coordendas deestos vectores por filas (del mismo modo se haría por columnas) como sigue:

v1 : α −1 −1v2 : −1 −α −1v3 : −1 −1 α

Aplicando T1 se obtiene

v3 : −1 −1 αv2 : −1 −α −1v1 : α −1 −1

aplicando 2 veces T3 se obtiene

v3 : −1 −1 αv2 − v3 : 0 −α+ 1 −1− αv1 + αv3 : 0 −1− α −1 + α2

o de forma equivalente

v3 : −1 −1 αv2 − v3 : 0 1− α −(1 + α)v1 + αv3 : 0 −(α+ 1) (α+ 1)(α− 1)

Aplicando T2, suponiendo que α+ 1 6= 0, se obtiene

v3 : −1 −1 αv2 − v3 : 0 1− α −(1 + α)v1+αv3α+1 : 0 −1 α− 1

Aplicando T1, se tiene

v3 : −1 −1 αv1+αv3α+1 : 0 −1 α− 1

v2 − v3 : 0 1− α −(1 + α)

aplicando T3, se tiene

v3 : −1 −1 αv1+αv3α+1 : 0 −1 α− 1

v2 − v3 + (1−α)(v1+αv3)α+1 : 0 0 −(1 + α)− (α− 1)2

o de forma equivalente

v3 : −1 −1 αv1+αv3α+1 : 0 −1 α− 1

v2 − v3 + (1−α)(v1+αv3)α+1 : 0 0 −α2 + α− 2

Page 273: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.13. RANGO DE UN SISTEMA DE VECTORES 261

De donde obtenemos que si α 6= −1, entonces

(v1,v2,v3) ∼µv3,

v1 + αv3α+ 1

,v2 − v3 + (1− α)(v1 + αv3)

α+ 1

¶y, los vectores de este último sistema son linealmente independientes, ya que−α2 + α − 2 6= 0 para todo α ∈ R. Por tanto, si α 6= −1 entonces rang S = 3.Si fuese α = −1, entonces se tendría

v3 : −1 −1 −1v2 − v3 : 0 2 0v1 − v3 : 0 0 0

Suprimiendo la tercera fila se tiene

v3 : −1 −1 −1v2 − v3 : 0 2 0

Por tanto, si α = −1(v1,v2,v3) ∼ (v3,v2 − v3)

y se tiene rang S = 2. Además, la relación de dependencia en este caso esv1 − v3 = 0

Ejercicio 29 Determinar el rango del sistema S de R4 y eventualmente las rela-ciones de dependencia entre los vectores del sistema, siendo S = (v1,v2,v3,v4)con v1 = (1, 1, 1, 1),v2 = (0, 1, 2,−1),v3 = (1, 0,−2, 3),v4 = (2, 1, 0,−1).Solución: Tomando la base canónica de R4, escribimos las coordendas de

estos vectores por columnas (del mismo modo se haría por filas) como sigue:

v1 v2 v3 v41 0 1 21 1 0 11 2 −2 01 −1 3 −1

Aplicando dos veces T3, se tiene

v1 v2 v3 − v1 v4 − 2v11 0 0 01 1 −1 −11 2 −3 −21 −1 2 −3

Aplicando de nuevo dos veces T3, se tiene

v1 v2 v3 − v1 + v2 v4 − 2v1 + v21 0 0 01 1 0 01 2 −1 01 −1 1 −4

Page 274: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

262 CAPÍTULO 9. ESPACIOS VECTORIALES

Por tanto,

rang(v1,v2,v3,v4) = rang(v1,v2,−v1 + v2 + v3,−2v1 + v2 + v4) = 4ya que los vectores del sistema (v1,v2,−v1 + v2 + v3,−2v1 + v2 + v4) sonlinealmente independientes.

9.14. Producto de espacios vectoriales. Isomor-fismos de espacios vectoriales

Ejercicio 30 Sean los espacios vectoriales E y F con E = F = R2. Calcularuna base del espacio vectorial producto E× F asociada a la base natural de R2.Solución: Sabemos que el espacio vectorial E×F es de dimensión 4, siendo

una base los vectores v1 = (e1,0),v2 = (e2,0),v3 = (0, e1) y v4 = (0, e2).Sabemos que

R2 ×R2 ∼= R2 ⊕ R2 ∼= (R⊕ R)⊕ (R⊕ R) ∼= R⊕ R⊕ R⊕ R ∼= R4

De aquí, podemos identificar el vector v1 = (e1,0) de R2 × R2 con el vector(1, 0, 0, 0) de R4. De este modo, tenemos

((1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1))

es una base del espacio producto.

9.15. Cambio de coordenadasEjercicio 31 Calcular la matriz de cambio de la base B1 = ((1, 1, 0), (−1, 0, 2), (0, 2, 5))a la base B2 = ((0, 1, 1), (1, 1, 1), (3, 1, 0)) de R3.Solución: Sea B0 la base natural de R3. Sabemos que la matriz de paso de

B1 a B0 es

P =

1 −1 01 0 20 2 5

y la matriz de paso de B2 a B0 es

Q =

0 1 31 1 11 1 0

Si (x1, y1, z1) son las coordenadas de un vector en B1 y (x2, y2, z2) son las co-ordenadas del mismo vector en B2. Entonces, se cumple 1 −1 0

1 0 20 2 5

x1y1z1

=

0 1 31 1 11 1 0

x2y2z2

Page 275: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

9.15. CAMBIO DE COORDENADAS 263

como que las matrices de cambio son siempre invertibles, podemos escribir 0 1 31 1 11 1 0

−1 1 −1 01 0 20 2 5

x1y1z1

=

x2y2z2

es decir 2 −3 −4

−2 5 91 −2 −3

x1y1z1

=

x2y2z2

Por tanto, la matriz de paso de B1 a B2 es

Q−1P =

2 −3 −4−2 5 91 −2 −3

Obsérvese el siguiente diagrama para recordar cómo puede deducirse directa-mente la matriz en cuestión

B2 Q−1←− B0 P←− B1No hay que olvidar que el diagrama para cualquier base B que no sea la naturales siempre el siguiente

B0 P←− Ben donde la matriz P tiene por columnas las coordenadas de los vectores de labase B.

Page 276: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

264 CAPÍTULO 9. ESPACIOS VECTORIALES

Page 277: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 10

Aplicaciones lineales

10.1. Definición y ejemplosEjercicio 32 Estudiar si la aplicación f : R2 → R dada por f(x, y) = 2x+3y−1es lineal.Solución: Sean (x1, y1), (x2, y2) ∈ R2,

f((x1, y1) + (x2, y2)) = f(x1 + x2, y1 + y2) = 2(x1 + x2) + 3(y1 + y2)− 1 == (2x1 + 3y1) + (2x2 + 3y2 − 1)

Por otro lado,

f(x1, y1) + f(x2, y2) = (2x1 + 3y1 − 1) + (2x2 + 3y2 − 1)Así pues, f((x1, y1) + (x2, y2)) 6= f(x1, y1) + f(x2, y2), por lo que concluimosque f no es lineal.

Ejercicio 33 Di cuáles de las siguientes aplicaciones son lineales:

f : R3 → R3 dada por f(x, y, z) = (2x, x− y, 0)

g : R→ R3 dada por g(x) = (−x, 2, 3x)h : R3 → R dada por h(x, y, z) = x− 3y + 2z

Solución:

Consideremos f : R3 → R3 dada por f(x, y, z) = (2x, x− y, 0).Sean (x1, y1, z1), (x2, y2, z2) ∈ R3:

f((x1, y1, z1) + (x2, y2, z2)) = f(x1 + x2, y1 + y2, z1 + z2) =

= (2(x1+x2), (x1+x2)−(y1+y2), 0) = (2x1+2x2, (x1−y1)+(x2−y2), 0) == (2x1, x1 − y1, 0) + (2x2, x2 − y2, 0) = f(x1, y1, z1) + f(x2, y2, z2)

265

Page 278: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

266 CAPÍTULO 10. APLICACIONES LINEALES

Sean (x1, y1, z1) ∈ R3, λ ∈ R:f(λ(x1, y1, z1)) = f(λx1, λy1, λz1) = (2(λx1), λx1 − λy1, 0) =

= λ(2x1, x1 − y1, 0) = λf(x1, y1, z1)

Así pues, se cumple

f((x1, y1, z1) + (x2, y2, z2)) = f(x1, y1, z1) + f(x2, y2, z2)

f(λ(x1, y1, z1)) = λf(x1, y1, z1)

Por tanto, f es una aplicación lineal.

Consideremos g : R→ R3 dada por g(x) = (−x, 2, 3x).Sean x1, x2 ∈ R:

g(x1 + x2) = (−(x1 + x2), 2, 3(x1 + x2)) = (−x1 − x2, 2, 3x1 + 3x2)

Solución:

Por otro lado,

g(x1) + g(x2) = (−x1, 2, 3x1) + (−x2, 2, 3x2) = (−x1 − x2, 4, 3x1 + 3x2)

Así pues, g(x1 + x2) 6= g(x1) + g(x2), por lo que g no es lineal.

Consideremos h : R3 → R dada por h(x, y, z) = x− 3y + 2z.Sean (x1, y1, z1), (x2, y2, z2) ∈ R3:

h((x1, y1, z1) + (x2, y2, z2)) = h(x1 + x2, y1 + y2, z1 + z2) =

= (x1 + x2)− 3(y1 + y2) + 2(z1 + z2) = x1 + x2 − 3y1 − 3y2 + 2z1 + 2z2 == (x1 − 3y1 + 2z1) + (x2 − 3y2 + 2z2) = h(x1, y1, z1) + h(x2, y2, z2)

Sean (x1, y1, z1) ∈ R3, λ ∈ R:h(λ(x1, y1, z1)) = h(λx1, λy1, λz1) = λx1 − 3(λy1) + 2(λz1) =

= λ(x1 − 3y1 + 2z1) = λh(x1, y1, z1)

Así pues, se cumple

h((x1, y1, z1) + (x2, y2, z2)) = h(x1, y1, z1) + h(x2, y2, z2)

h(λ(x1, y1, z1)) = λh(x1, y1, z1)

Por tanto, h es una aplicación lineal.

Page 279: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

10.2. NÚCLEO E IMAGEN DE UNA APLICACIÓN LINEAL 267

Ejercicio 34 Sea f :M2(R)→ R4 dada por

f

µa bc d

¶= (a+ b, b+ c, c+ d, d+ a).

Probar que f es lineal.Solución: Sean A1, A2 ∈M2(R):

A1 =

µa1 b1c1 d1

¶, A2 =

µa2 b2c2 d2

¶Veamos que f es lineal:

f(A1+A2) = f

µµa1 b1c1 d1

¶+

µa2 b2c2 d2

¶¶= f

µµa1 + a2 b1 + b2c1 + c2 d1 + d2

¶¶=

= ((a1+a2)+(b1+b2), (b1+b2)+(c1+c2), (c1+c2)+(d1+d2), (d1+d2)+(a1+a2)) =

= ((a1+b1)+(a2+b2), (b1+c1)+(b2+c2), (c1+d1)+(c2+d2), (d1+a1)+(d2+a2)) =

= (a1 + b1, b1 + c1, c1 + d1, d1 + a1) + (a2 + b2, b2 + c2, c2 + d2, d2 + a2) =

= f

µa1 b1c1 d1

¶+ f

µa2 b2c2 d2

¶= f(A1) + f(A2)

Sean λ ∈ R, A =

µa bc d

¶:

f(λA) = f

µλ

µa bc d

¶¶= f

µλa λbλc λd

¶= (λa+λb, λb+λc, λc+λd, λd+λa) =

= (λ(a+ b), λ(b+ c), λ(c+ d), λ(d+ a)) = λ(a+ b, b+ c, c+ d, d+ a) =

= λf

µa bc d

¶= λf(A)

Así pues,f(A1 +A2) = f(A1) + f(A2)

f(λA1) = λf(A1)

Por tanto, f es lineal.

10.2. Núcleo e imagen de una aplicación linealEjercicio 35 Calcular el núcleo y la imagen de la aplicación lineal f : R2 → R3definida por f(x, y) = (2x+ y, x− y, 3y).Solución: Calculemos Nuc f :

Nuc f = {(x, y) ∈ R2 : f(x, y) = 0} = {(x, y) ∈ R2 : (2x+y, x−y, 3y) = (0, 0, 0)} == {(x, y) : 2x+ y = 0, x− y = 0, 3y = 0} =

Page 280: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

268 CAPÍTULO 10. APLICACIONES LINEALES

= {(x, y) : 2x+ y = 0, x− y = 0, y = 0} == {(x, y) : x = y = 0} = {(0, 0)}

Calculemos Imf :

Imf = {f(x, y),∀(x, y) ∈ R2} = {(2x+ y, x− y, 3y),∀(x, y) ∈ R2} =

= {(2x, x, 0) + (y,−y, 3y),∀(x, y) ∈ R2} == {x(2, 1, 0) + y(1,−1, 3),∀(x, y) ∈ R2} = h(2, 1, 0), (1,−1, 3)i

Así pues,Nuc f = 0

Imf = h(2, 1, 0), (1,−1, 3)i.

Ejercicio 36 Sea la aplicación lineal f : R3 →M2(R) definida por f(x1, x2, x3) =µx1 − x2 x2 − x3x3 − x1 x1 − x2

¶. Calcular la dimensión y una base de Nuc f e Imf .

Solución: Calculemos Nuc f :

Nuc f = {(x1, x2, x3) ∈ R3 : f(x1, x2, x3) = 0} =

= {(x1, x2, x3) ∈ R3 :µ

x1 − x2 x2 − x3x3 − x1 x1 − x2

¶=

µ0 00 0

¶} =

= {(x1, x2, x3) : x1 − x2 = 0, x2 − x3 = 0, x3 − x1 = 0, x1 − x2 = 0} == {(x1, x2, x3) : x1 = x2 = x3} = {(x1, x1, x1), x1 ∈ R} =

= {x1(1, 1, 1), x1 ∈ R} = h(1, 1, 1)iAsí pues,

Nuc f = h(1, 1, 1)iPor tanto, dim Nuc f = 1, y podemos deducir que dimImf = 2, ya que

dimR3 = dimNuc f+dimImf ⇒ 3 = 1+dimImf ⇒ dimImf = 2

Calculemos ahora Imf :

Imf = {f(x1, x2, x3),∀(x1, x2, x3) ∈ R3} =

= {µ

x1 − x2 x2 − x3x3 − x1 x1 − x2

¶, ∀(x1, x2, x3) ∈ R3} =

= {µ

x1 0−x1 x1

¶+

µ −x2 x20 −x2

¶+

µ0 −x3x3 0

¶, ∀(x1, x2, x3) ∈ R3} =

= {x1µ

1 0−1 1

¶+x2

µ −1 10 −1

¶+x3

µ0 −11 0

¶, ∀(x1, x2, x3) ∈ R3} =

Page 281: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

10.2. NÚCLEO E IMAGEN DE UNA APLICACIÓN LINEAL 269

= hµ

1 0−1 1

¶,

µ −1 10 −1

¶,

µ0 −11 0

¶i

Sabemos que dimImf = 2, por lo que basta tomar dos vectores linealmenteindependientes entre los que generan Imf , por ejemplo los dos primeros:

Imf = hµ

1 0−1 1

¶,

µ −1 10 −1

¶i.

Ejercicio 37 Sea f un endomorfismo idempotente (f◦f = f2 = f). Demostrar:

1. (I − f)2 = I − f

2. Nuc f = Im (I − f)

3. Imf = Nuc (I − f)

Solución:

1. Veamos que (I − f)2 = I − f :

(I − f)2 = (I − f) ◦ (I − f) = I ◦ I + I ◦ (−f) + (−f) ◦ I + (−f) ◦ (−f) =

= I − f − f + f2 = I − 2f + f2 = I − 2f + f = I − f

2. Veamos que Nuc f = Im (I − f): Recordemos:

Nuc f = {u ∈ E : f(u) = 0}

Im (I − f) = {v ∈ E : Existe u ∈ E tal que (I − f)(u) = v}) Probemos que Nuc f ⊂ Im (I − f):

u ∈ Nuc f ⇒ f(u) = 0 ⇒ u− f(u) = u− 0 ⇒

⇒ (I − f)(u) = u ⇒ u ∈ Im (I − f)

) Probemos que Nuc f ⊃ Im (I − f):

v ∈ Im (I−f) ⇒ Existe u ∈ E tal que (I−f)(u) = v ⇒ I(u)−f(u) = v ⇒

⇒ u−f(u) = v ⇒ f(u−f(u)) = f(v) ⇒ f(u)−f2(u) = f(v) ⇒

⇒ f(u)− f(u) = f(v) ⇒ 0 = f(v) ⇒ v ∈ Nuc f

Así pues, Nuc f = Im (I − f).

Page 282: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

270 CAPÍTULO 10. APLICACIONES LINEALES

3. Veamos que Imf = Nuc (I − f): Recordemos:

Imf = {v ∈ E : Existe u ∈ E tal que f(u) = v}

Nuc (I − f) = {u ∈ E : (I − f)(u) = 0}) Probemos que Imf ⊂ Nuc (I − f):

v ∈ Imf ⇒ Existe u ∈ E tal que f(u) = v ⇒ f(f(u)) = f(v) ⇒

⇒ f2(u) = f(v) ⇒ f(u) = f(v) ⇒ v = f(v) ⇒⇒ v− f(v) = 0 ⇒ (I − f)(v) = 0 ⇒ v ∈ Nuc (I − f)

) Probemos que Imf ⊃ Nuc (I − f):

u ∈ Nuc (I − f) ⇒ (I − f)(u) = 0 ⇒ I(u)− f(u) = 0 ⇒

⇒ u− f(u) = 0 ⇒ u = f(u) ⇒ u ∈ Imf

Así pues, Imf = Nuc(I − f).

10.3. Matriz asociada a una aplicación lineal

Ejercicio 38 Sea la aplicación lineal f : R3 → R4 definida por

f(x, y, z) = (2x+ 4y + 2z,−x− 2y − z, 3x+ y − 2z, 5x− 5z).

Calcular su matriz asociada en las bases canónicas.Solución: Para determinar la matriz asociada a f en las bases canónicas,

debemos expresar las imágenes de e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) (losvectores de la base canónica de R3) en u1 = (1, 0, 0, 0), u2 = (0, 1, 0, 0), u3 =(0, 0, 1, 0), u4 = (0, 0, 0, 1) (la base canónica de R4):

f(e1) = f(1, 0, 0) = (2,−1, 3, 5) = 2u1 − u2 + 3u3 + 5u4

Por tanto, la primera columna de la matriz asociada a f en estas bases será2−135

(Porque los coeficientes de f(e1) en la base {u1, u2, u3, u4} son (2,−1, 3, 5)

f(e2) = f(0, 1, 0) = (4,−2, 1, 0) = 4u1 − 2u2 + u3

Page 283: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

10.3. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 271

Por tanto, la segunda columna de la matriz asociada a f en estas bases será4−210

f(e3) = f(0, 0, 1) = (2,−1,−2,−5) = 2u1 − u2 − 2u3 − 5u4

Por tanto, la tercera columna de la matriz asociada a f en estas bases será2−1−2−5

Así pues, la matriz asociada a f en las bases canónicas de R3 y R4 es:

2 4 2−1 −2 −13 1 −25 0 −5

Ejercicio 39 Sea la aplicación lineal f : R2 → R2 definida por f(x, y) = (x +y, x−y). Obtener su matriz asociada en la base canónica de R2. Obtener tambiénen esta misma base las matrices asociadas a f2 − I y f3.Solución: Los vectores de la base canónica de R2 son e1 = (1, 0), e2 = (0, 1).

f(e1) = f(1, 0) = (1, 1) = e1 + e2

f(e2) = f(0, 1) = (1,−1) = e1 − e2

Por tanto, la matriz asociada a f en esta base es:µ1 11 −1

¶(La primera columna de la matriz está formada por la coeficientes de f(e1)en la base {e1, e2}, y la segunda columna, por los coeficientes de f(e2) en{e1, e2})Calculemos ahora la matriz asociada a f2 − I:La matriz asociada a f es µ

1 11 −1

¶y la matriz asociada a I es µ

1 00 1

Page 284: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

272 CAPÍTULO 10. APLICACIONES LINEALES

Así pues, la matriz asociada a f2 − I esµ1 11 −1

¶2−µ1 00 1

¶=

µ1 11 −1

¶µ1 11 −1

¶−µ1 00 1

¶=

=

µ2 00 2

¶−µ1 00 1

¶=

µ1 00 1

¶Calculemos, finalmente, la matriz asociada a f3: Como la matriz asociada a fes µ

1 11 −1

¶la matriz asociada a f3 es:µ1 11 −1

¶3=

µ1 11 −1

¶µ1 11 −1

¶2=

µ1 11 −1

¶µ2 00 2

¶=

µ2 22 −2

¶.

Ejercicio 40 Sea f : R3 → R4 una aplicación lineal tal que f(e1 − e3) =u1, f(e2 − e3) = u1 − u2 y f(2e3) = 2u1 + 2u3, donde B = {e1, e2, e3} esuna base de R3 y B = {u1,u2,u3,u4} es una base de R4. Calcular la matrizasociada a f en las bases B y B.Solución: Para determinar la matriz asociada a f en las bases B y B nos

hace falta conocer f(e1), f(e2) y f(e3).

Sabemos que f(2e3) = 2u1+2u3 ⇒ 2f(e3) = 2u1+2u3 ⇒ f(e3) = u1+u3

Sabemos que f(e1−e3) = u1 ⇒ f(e1)−f(e3) = u1 ⇒ f(e1) = u1+f(e3) ⇒⇒ f(e1) = u1 + u1 + u3 ⇒ f(e1) = 2u1 + u3

Sabemos que f(e2 − e3) = u1 − u2 ⇒ f(e2)− f(e3) = u1 − u2 ⇒⇒ f(e2) = u1 − u2 + f(e3) ⇒ f(e2) = u1 − u2 + u1 + u3 ⇒

⇒ f(e2) = 2u1 − u2 + u3Así pues,

f(e1) = 2u1 + 0u2 + 1u3 + 0u4

f(e2) = 2u1 − 1u2 + 1u3 + 0u4f(e3) = 1u1 + 0u2 + 1u3 + 0u4

Por tanto, la matriz asociada a f en las bases B, B es2 2 10 −1 01 1 10 0 0

Page 285: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

10.3. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 273

Ejercicio 41 Dada la aplicación lineal f : R3 → R2 definida por f(x, y, z) =(2x+ y, y − z), encontrar la matriz asociada a f en:

las bases canónicas de R3 y R2;

las bases {(1, 1, 1), (0, 1, 2), (0, 2, 1)} de R3 y {(2, 1), (1, 0)} de R2.

Solución:

Calculemos la matriz de f en las bases canónicas:Base canónica de R3: {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)}Base canónica de R2: {u1 = (1, 0), u2 = (0, 1)}Para determinar la matriz asociada a f en estas bases, debemos calcularf(e1), f(e2), f(e3):

f(e1) = f(1, 0, 0) = (2, 0) = 2u1 + 0u2

f(e2) = f(0, 1, 0) = (1, 1) = u1 + u2

f(e3) = f(0, 0, 1) = (0,−1) = 0u1 − u2

Por tanto, la matriz asociada a f en las bases canónicas de R3 y R2 es:µ2 1 00 1 −1

¶Calculemos ahora la matriz de f en las bases siguientes:Base de R3: {v1 = (1, 1, 1), v2 = (0, 1, 2), v3 = (0, 2, 1)}Base de R2: {w1 = (2, 1), w2 = (1, 0)}Para determinar la matriz asociada a f en estas bases, debemos calcularf(v1), f(v2), f(v3) y expresarlo en la base {w1, w2}:

f(v1) = f(1, 1, 1) = (3, 0) = 3w2

f(v2) = f(0, 1, 2) = (1,−1) = −w1 + 3w2f(v3) = f(0, 2, 1) = (2, 1) = w1

Así pues,f(v1) = 0w1 + 3w2

f(v2) = −w1 + 3w2f(v3) = w1 + 0w2

Por tanto, la matriz asociada a f en las bases {v1, v2, v3} de R3 y {w1, w2}de R2 es: µ

0 −1 13 3 0

Page 286: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

274 CAPÍTULO 10. APLICACIONES LINEALES

Ejercicio 42 Sea f : R2 → R2 una aplicación lineal cuya matriz en la base

canónica es A =µ1 32 4

¶. Dada la base {u1,u2}, con u1 = (2, 5),u2 = (1, 3),

calcular la matriz de f en esta nueva base.Solución: Sabemos que la matriz de f en la base {e1 = (1, 0), e2 = (0, 1)}

de R2 esA =

µ1 32 4

¶Queremos encontrar su matriz en la base

{u1 = (2, 5),u2 = (1, 3)}Para ello usarem la siguiente fórmula, que nos da la relación entre las matricesde una aplicación lineal respecto a bases distintas:

B = R−1AP.

donde B es la matriz asociada a f en la base {u1,u2}, R−1 es la inversa dela matriz de las coordenadas de la base {u1,u2} en la base {e1, e2}, A es lamatriz asociada a f en la base {e1, e2} y P es la matriz de las coordenadas dela base {u1,u2} en la base {e1, e2}. Calculemos P : P tiene por columnas lascomponentes de los vectores {u1,u2} en la base {e1, e2}:

u1 = (2, 5) = 2e1 + 5e2

u2 = (1, 3) = 1e1 + 3e2

Por tanto,

P =

µ2 15 3

¶Calculemos R−1: R−1 es la inversa de la matriz de las coordenadas de {u1,u2}en {e1, e2}, es decir, R−1 = P−1. Dicho de otro modo, R−1 es la matriz de lascoordenadas de {e1, e2} en {u1,u2}:

e1 = (1, 0) = 3u1 − 5u2e2 = (0, 1) = −u1 + 2u2

Por tanto,

R−1 =µ

3 −1−5 2

¶Calculemos finalmente B:

B = R−1AP =µ

3 −1−5 2

¶µ1 32 4

¶µ2 15 3

¶=

=

µ3 −1−5 2

¶µ17 1024 14

¶=

µ27 16−37 −22

¶Así pues, la matriz de f en la base {u1,u2} esµ

27 16−37 −22

Page 287: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

10.4. ESPACIOS VECTORIALES ISOMORFOS 275

10.4. Espacios vectoriales isomorfosEjercicio 43 Si E es un espacio vectorial de dimensión 1 sobre un cuerpo K,demostrar que L(E,E) es isomorfo a K.Solución: Como dimE = 1, toda base de E está formada por un solo ele-

mento. Sea {e} una base de E. Así pues, E = hei.Sabemos que toda aplicación lineal f : E→ E queda definida al dar una imagende una base de E, es decir, al dar f(e).Puesto que f(e) ∈ E = hei ⇒ existe λ ∈ K tal que f(e) = λe.Conocer λ nos permite calcular la imagen por f de todo vector de E: si v ∈ E,entonces existe µ ∈ K tal que v = µe, y

f(v) = f(µe) = µf(e) = µ(λe) = (µλ)e = (λµ)e = λ(µe) = λv

Por tanto, toda aplicación lineal f : E → E consiste en multiplicar por unescalar. Esto nos lleva a definir la aplicación

ϕ : L(E,E)→ K

de la forma siguiente: si f(e) = λe, entonces ϕ(f) = λ ∈ K.Veamos que ϕ es un isomorfismo: ϕ es lineal: Sean f, g ∈ L(E,E) tales queϕ(f) = λ y ϕ(g) = µ.

(f+g)(e) = f(e)+g(e) = λe+µe = (λ+µ)e ⇒ ϕ(f+g) = λ+µ = ϕ(f)+ϕ(g)

Sea α ∈ K(αf)(e) = αf(e) = α(λe) = (αλ)e ⇒ ϕ(αf) = αλ = αϕ(f)

Así pues,ϕ(f + g) = ϕ(f) + ϕ(g)

ϕ(αf) = αϕ(f)

ϕ es inyectiva:

Nucϕ = {f ∈ L(E,E) : ϕ(f) = 0} = {f ∈ L(E,E) : f(e) = 0e} == {f ∈ L(E,E) : f(v) = 0v,∀v ∈ E} = 0

Por tanto, Nucϕ = 0 ⇒ ϕ inyectiva

ϕ es exhaustiva: Sea λ ∈ K. Definamos una aplicación f ∈ L(E,E) como sigue:

f(v) = λv, ∀v ∈ EEn particular,

f(e) = λe ⇒ ϕ(f) = λ ⇒ λ ∈ Imϕ ⇒ Imϕ = K ⇒ ϕ exhaustiva.

Page 288: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

276 CAPÍTULO 10. APLICACIONES LINEALES

10.5. Teoremas de isomorfismo

Ejercicio 44 Sean F y G subespacios vectoriales de E. Se considera la apli-cación f : F×G→ E, definida por f(u,v) = u+ v.

1. Demostrar que Imf = F+G, y Nuc f = {(u,−u) : u ∈ F ∩G}.

2. Demostrar que la aplicación g definida por g(u) = (u,−u) es un isomor-fismo de F ∩G en Nuc f .

3. Deducir de los apartados anteriores que dim (F + G) + dim (F ∩ G) =dimF+ dimG (Fórmula de Grassman).

Solución:

1. Veamos que Imf = F+G:

Imf = {f(u,v) : (u,v) ∈ F×G} = {f(u,v) : u ∈ F,v ∈ G} =

= {u+ v : u ∈ F,v ∈ G} = F+GVeamos que Nuc f = {(u,−u) : u ∈ F ∩G}:

Nuc f = {(u,v) ∈ F×G : f(u,v) = 0} = {(u,v) ∈ F×G : u+ v = 0} =

= {(u,v) ∈ F×G : v = −u} = {(u,−u) ∈ F×G} = {(u,−u) : u ∈ F,−u ∈ G} == {(u,−u) : u ∈ F ∩G}

2. Veamos que la aplicación g : F ∩G→ Nuc f definida por g(u) = (u,−u)es un isomorfismo:g es lineal: Sean u,v ∈ F ∩G,

g(u+v) = (u+v,−(u+v)) = (u+v,−u−v) = (u,−u)+(v,−v) = g(u)+g(v)

Sean u ∈ F ∩G, λ ∈ K,

g(λu) = (λu,−λu) = λ(u,−u) = λg(u)

g es inyectiva: veamos que Nuc g = 0

Nuc g = {u ∈ F ∩G : g(u) = 0} = {u ∈ F ∩G : (u,−u) = 0} =

= {u ∈ F ∩G : u = 0} = 0g es exhaustiva: Sea (u,−u) ∈ Nuc f ⇒ (u,−u) = g(u) ⇒ (u,−u) ∈Img.

Page 289: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

10.6. EL ESPACIO DE LAS APLICACIONES LINEALES 277

3. Veamos que dim (F+G) + dim (F ∩G) = dimF+ dimG:

Sabemos que (F×G)/Nuc f ∼= Imf ⇒ dim ((F×G)/Nuc f) = dim (Imf) ⇒⇒ dim (F×G)− dim (Nuc f) = dim (Imf) ⇒⇒ dim (F×G) = dim (Nuc f) + dim (Imf) ⇒⇒ dim (F×G) = dim (Nuc f) + dim (F+G) ⇒⇒ dim (F×G) = dim (F ∩G) + dim (F+G) ⇒⇒ dim (F) + dim (G) = dim (F ∩G) + dim (F+G)

10.6. El espacio de las aplicaciones linealesEjercicio 45 Calcula la dimensión sobre R de los siguientes espacios vectori-ales:

L(R2,R3)

L(C,R5)

L(R,M2×3(R))

L(L(R3,R4),M3×4(R))

Solución:

Calculemos dimL(R2,R3):

dimL(R2,R3) = dim (R2) · dim (R3) = 2 · 3 = 6

Calculemos dimL(C,R5):

dimL(C,R5) = dim (C) · dim (R5) = 2 · 5 = 10

Calculemos dimL(R,M2×3(R)):

dimL(R,M2×3(R)) = dim (R) · dim (M2×3(R)) = 1 · 2 · 3 = 6

Calculemos dimL(L(R3,R4),M3×4(R)):

dimL(L(R3,R4),M3×4(R)) = dim (L(R3,R4) · dim (M3×4(R)) =

= dim (R3) · dim (R4) · dim(M3×4(R)) = 3 · 4 · (3 · 4) = 144

Page 290: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

278 CAPÍTULO 10. APLICACIONES LINEALES

Page 291: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 11

Matrices

11.1. Definición de matrizEjercicio 46 ¿Cuál es el orden de las matrices siguientes?

A =

µ3 −25 8

¶, B =

¡ −1 2√3 16

¢, C =

−1 28 57 61 1

Solución: La matriz A es cuadrada de orden 2. La matriz B es una matriz

fila de orden 4, y la matriz C es de orden 4× 2.Ejercicio 47 De las matrices del ejercicio anterior, decir cuáles son los valoresde a21, b23 y c32.Solución: Se tiene a21 = 5; no existe el valor de b23 porque la matriz sólo

tiene una fila; y c32 = 6.

Ejercicio 48 Construir la matriz A = (aij) de orden 4× 3 definida por aij =2i− j.Solución: Puesto que aij = 2i− j, se tiene

A =

1 0 −13 2 15 4 37 6 5

ya que, por ejemplo, a42 = 2 · 4− 2 = 8− 2 = 6.

11.2. Espacio vectorial de las matricesEjercicio 49 Determinar dos matrices X e Y tales que verifiquen

2X − 5Y =µ1 −20 1

¶−X + 3Y =

µ2 13 0

¶279

Page 292: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

280 CAPÍTULO 11. MATRICES

Solución: Sean

A =

µ1 −20 1

¶B =

µ2 13 0

¶entonces podemos escribir las ecuaciones iniciales como:

2X − 5Y = A

−X + 3Y = B

por reducción, multiplicando la segunda ecuación por 2 y sumándola después conla primera, obtenemos:

Y = 2B +A = 2

µ1 −20 1

¶+

µ2 13 0

¶=

µ4 −33 2

¶y multiplicando la primera por 3 y la segunda por 5 y sumando después, se tiene:

X = 3A+ 5B = 3

µ1 −20 1

¶+ 5

µ2 13 0

¶=

µ13 −115 3

Ejercicio 50 Estudiar la dependencia lineal de las tres matrices siguientes:

A =

µ2 −24 −6

¶B =

µ1 −45 3

¶C =

µ0 −4−4 −8

¶Solución: De la siguiente combinación lineal de la matriz nula

α

µ2 −24 −6

¶+ β

µ1 −45 3

¶+ γ

µ0 −4−4 −8

¶=

µ0 00 0

¶se obtiene: µ

2α+ β −2α− 4β − 4γ4α+ 5β − 4γ −6α+ 3β − 8γ

¶=

µ0 00 0

¶luego

2α+ β = 0−2α− 4β − 4γ = 04α+ 5β − 4γ = 0−6α+ 3β − 8γ = 0

cuya solución es α = 0, γ = 0, β = 0. Por consiguiente las matrices A,B y Cson lienalmente independientes.

Ejercicio 51 Determinar λ y µ para que las matrices siguientes:

A =

µ2 15 3

¶B =

µ5 −32 −1

¶C =

µ −11 λ4 µ

Page 293: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

11.3. PRODUCTO DE MATRICES 281

sean dependientes. Hallar la relación de dependencia.Solución: Si son dependientes, podemos escribir

α

µ2 15 3

¶+ β

µ5 −32 −1

¶=

µ −11 λ4 µ

¶de donde se obtieneµ

2α+ 5β α− 3β5α+ 2β 3α− β

¶=

µ −11 λ4 µ

¶o sea el sistema

2α+ 5β = −11α− 3β = λ5α+ 2β = 43α− β = µ

De la primera y la tercera se obtiene α = 2 y β = −3, y sustiyendo estosresultados en la segunda y la cuarta, tenemos λ = 11 y µ = 9.

11.3. Producto de matricesEjercicio 52 Sean las matrices

B =

µ1 2 −32 −1 4

¶y C =

µ1 7 −135 0 5

¶¿Existe alguna matriz A, tal que C = AB?Solución: La matriz A, en caso de existir, será cuadrada de orden 2

A =

µx yz t

¶Entonces

AB =

µx yz t

¶µ1 2 −32 −1 4

¶=

µx+ 2y 2x− y −3x+ 4yz + 2t 2z − t −3z + 4t

¶Por tanto µ

1 7 −135 0 5

¶=

µx+ 2y 2x− y −3x+ 4yz + 2t 2z − t −3z + 4t

¶y, en consecuencia,

x+ 2y = 12x− y = 7

−3x+ 4y = −13

de donde, y = −1 y x = 3. Además

z + 2t = 52z − t = 0

−3z + 4t = 5

Page 294: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

282 CAPÍTULO 11. MATRICES

de donde, z = 1 y t = 2. Por consiguiente

A =

µ3 −11 2

Ejercicio 53 Efectuar por cajas la multiplicación AB, con

A =

2 3 1 01 0 0 10 1 1 0

y B =

1 11 01 00 1

Solución: Para ello, debemos tener en cuenta que las matrices cuyos ele-

mentos sean las cajas han de ser multiplicables, así como debe ser siempre posiblela multiplicación de las cajas consideradas como matrices. Descomponemos Ade la siguiente manera

A =

2 3 1 01 0 0 10 1 1 0

=

µA11 A12A21 A22

¶y B como sigue

B =

1 11 01 00 1

=

µB11B21

Entonces

AB =

µA11 A12A21 A22

¶µB11B21

¶=

µA11B11 +A12B21A21B11 +A22B21

¶Se tiene

A11B11 +A12B21 =

µ2 31 0

¶µ1 11 0

¶+

µ1 00 1

¶µ1 00 1

¶=

µ6 21 2

¶y

A21B11 +A22B21 =¡0 1

¢µ 1 11 0

¶+¡1 0

¢µ 1 00 1

¶=

¡2 0

¢Por tanto

AB =

6 21 22 0

Page 295: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

11.4. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 283

11.4. Matriz asociada a una aplicación lineal

Ejercicio 54 Una aplicación lineal aplica (1, 1) en (0, 1, 2) y (−1, 1) en (2, 1, 0).Hallar la matriz que representa a esta aplicación lineal.Solución: Llamamos f a esta aplicación lineal. Es claro que f : R2 −→ R3

y

f(1, 1) = (0, 1, 2)

f(−1, 1) = (2, 1, 0)

Si tomamos las bases canónicas de R2 y R3, puesto que (1, 1) = e1 + e2 y(−1, 1) = −e1 + e2 y f es lineal, se tiene

f(e1) + f(e2) = (0, 1, 2)

−f(e1) + f(e2) = (2, 1, 0)

De aquí se sigue que

2f(e1) = (−2, 0, 2)2f(e2) = (2, 2, 2)

es decir,

f(e1) = (−1, 0, 1)f(e2) = (1, 1, 1)

Por tanto, la matriz asociada a f en las bases canónicas de R2 y R3 es lasiguiente matriz −1 1

0 11 1

11.5. El anillo de las matrices cuadradas

Ejercicio 55 Sean A,B ∈Mn(K), demostrar que

1. tr (αA+ βB) = α tr A+ β tr B

2. tr (AB) = tr (BA)

Como consecuencia, probar que no es posible la igualdad AB −BA = In.

Page 296: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

284 CAPÍTULO 11. MATRICES

Solución: (1) Se cumple

tr (αA+ βB) = tr (αaij + βbij)

=nXi=1

(αaii + βbii)

= αnXi=1

aii + βnXi=1

bii

= α tr A+ β tr B

(2) Supongamos que C = AB y D = BA. Entonces se cumple

tr C =nXi=1

cii

=nXi=1

nXj=1

aijbji

y

tr D =nXi=1

dii

=nXi=1

nXj=1

bijaji

Es claro que tr C = tr D.Si fuera posible, entonces por (1) y (2) se cumple

tr(AB −BA) = trI

tr(AB)− tr(BA) = n

0 = n

lo que es una contradicción.

Ejercicio 56 Una matriz A deMn(K) se llama nilpotente si existe un númeronatural n tal que An = O. Probar que si A es nilpotente, entonces la matrizI −A tiene inversa.Solución: Supongamos que existe n ∈ N tal que An = O. Observemos que

(I +A+A2 + · · ·+An−2 +An−1)(I −A) = I +A+A2 + · · ·+An−2 +An−1 −A−A2 − · · ·−An−1 −An

= I −An

= I

Por tanto(I −A)−1 = I +A+A2 + · · ·+An−2 +An−1

Page 297: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

11.6. CAMBIOS DE BASE 285

Ejercicio 57 Dada una matriz A ∈Mn(K), probar que

1. Existe un número natural m ≤ n tal que

k0I + k1A+ k2A2 + · · ·+ kmA

m = O

2. Si k0 6= 0, la matriz A es inversible. ¿Cuál es su inversa?

Solución: (1) Puesto que A representa a un endomorfismo f de un espaciovectorial E sobre K de dimensión n, consideremos las potencias sucesivas de f

f0 = IdEf, f2, ..., fr = f ◦ fr−1, ...

Si la dimensión de E es n, el espacio vectorial L(E) tiene dimensión n2, y laspotencias fr no pueden ser todas linealmente independientes. Por tanto, debeexistir algún m ≤ n y k0, k1, ..., km no todos nulos tales que

k0IdE + k1f + k2f2 + · · ·+ kmf

m = O

De aquí se obtiene

k0I + k1A+ k2A2 + · · ·+ kmA

m = O

(2) Si k0 6= 0, entonces se cumple que

I +k1k0

A+k2k0A+ · · ·+ km

k0Am = O

de donde resulta µ−k1k0

I − k2k0

A− · · ·− kmk0

Am−1¶A = I

Por tanto

A−1 = −k1k0

I − k2k0

A− · · ·− kmk0

Am−1

11.6. Cambios de baseEjercicio 58 Encontrar las coordenadas de un vector de R3, respecto de labase B1 = ((1, 2, 3), (3, 4, 0), (1, 1, 0)), sabiendo que sus coordenadas respecto dela base B2 = ((1, 1, 0), (0, 1, 1), (1, 0, 1)), son (1, 1, 1).Solución: Supongamos que B0 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) sea la base canóni-

ca de R3. Observemos el diagrama siguiente

IdR3 IdR3R3 −→ R3 −→ R3B2 A B0 B B1

Page 298: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

286 CAPÍTULO 11. MATRICES

siendo

A =

1 0 11 1 00 1 1

B =

1 3 12 4 13 0 0

−1 = 0 0 1

3−1 1 −134 −3 2

3

En esta misma unidad se expone un método para hallar la matriz inversa. Aquísuponemos que ya se conoce y simplemente damos el resultado. Entonces

IdR3R3 −→ R3B2 BA B1

donde

BA =

0 0 13−1 1 −13

4 −3 23

1 0 11 1 00 1 1

=

0 13

13

0 23 −43

1 −73 143

Por tanto 0 1

313

0 23 −43

1 −73 143

111

=

23−23103

luego, las coordenadas del vector en la base B1 son (2/3,−2/3, 10/3).

Ejercicio 59 Sea f : R3 → R3 una aplicación lineal de matriz asociada en labase canónica B0 = (e1, e2, e3)

A =

1 0 1−1 1 00 2 0

Sean u1 = e2 + e3, u2 = e1 + e3 y u3 = e1 + e2 los vectores de una nueva basede R3. Calcular la imagen del vector v = u1 + 2u2 + 2u3.Solución: Llamemos B1 a la base nueva. Consideremos el diagrama corre-

spondiente al cambio de base

IdR3 f IdR3R3 → R3 → R3 → R3B1 P B0 A B0 P−1 B1

entoncesf

R3 −→ R3B1 P−1AP B1

Page 299: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

11.6. CAMBIOS DE BASE 287

Debemos calcular P y P−1. Es claro que

P =

0 1 11 0 11 1 0

ya que

IdR3R3 → R3u1 → u1 = e2 + e3u2 → u2 = e1 + e3u3 → u3 = e1 + e2

Se tieneIdR3

R3 → R3e1 → e1 = 1/2(−u1 + u2 + u3)e2 → e2 = 1/2(u1 − u2 + u3)e3 → e3 = 1/2(u1 + u2 − u3)

ya quee2 + e3 = u1e1 + e3 = u2e1 + e2 = u3

=⇒e1 = 1/2(−u1 + u2 + u3)e2 = 1/2(u1 − u2 + u3)e2 = 1/2(u1 − u2 + u3)

Por tanto

P−1 =1

2

−1 1 11 −1 11 1 −1

y, en consecuencia,

P−1AP =1

2

−1 1 11 −1 11 1 −1

1 0 1−1 1 00 2 0

0 1 11 0 11 1 0

=

1 −32 12

1 32

32

0 12 −12

La imagen del v = u1 + 2u2 + 2u3 es pues 1 −32 1

21 3

232

0 12 −12

122

=

−170

es decir,

f(v) = −u1 + 7u2

Page 300: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

288 CAPÍTULO 11. MATRICES

11.7. Matrices elementales

Ejercicio 60 Hallar la matriz canónica de rango r de la matriz siguiente1 3 1 02 −1 1 1−1 11 1 −20 2 0 −1−1 1 1 3

averiguando también las matrices de paso correspondientes.Solución:

F02 = F2 − 2F1F

03 = F3 + F1

F04 = F4 + F1

→ E3E2E1 =

1 0 0 0 0−2 1 0 0 01 0 1 0 00 0 0 1 01 0 0 0 1

Entonces

1 0 0 0 0−2 1 0 0 01 0 1 0 00 0 0 1 01 0 0 0 1

1 3 1 02 −1 1 1−1 11 1 −20 2 0 −1−1 1 1 3

=

1 3 1 00 −7 −1 10 14 2 −20 2 0 −10 4 2 3

F02 = −

1

7F2 → E4 =

1 0 0 0 00 −17 0 0 00 0 1 0 00 0 0 1 00 0 0 0 1

Entonces

1 0 0 0 00 −17 0 0 00 0 1 0 00 0 0 1 00 0 0 0 1

1 3 1 00 −7 −1 10 14 2 −20 2 0 −10 4 2 3

=

1 3 1 00 1 1

7 −170 14 2 −20 2 0 −10 4 2 3

F01 = F1 − 3F2

F03 = F3 − 14F2F

04 = F4 − 2F2

F05 = F5 − 4F2

→ E8E7E6E5 =

1 −3 0 0 00 1 0 0 00 −14 1 0 00 −2 0 1 00 −4 0 0 1

Page 301: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

11.7. MATRICES ELEMENTALES 289

Entonces1 −3 0 0 00 1 0 0 00 −14 1 0 00 −2 0 1 00 −4 0 0 1

1 3 1 00 1 1

7 −170 14 2 −20 2 0 −10 4 2 3

=

1 0 4

737

0 1 17 −17

0 0 0 00 0 −27 −570 0 10

7257

F03 = F5

F05 = F3

→ E9 =

1 0 0 0 00 1 0 0 00 0 0 0 10 0 0 1 00 0 1 0 0

Entonces

1 0 0 0 00 1 0 0 00 0 0 0 10 0 0 1 00 0 1 0 0

1 0 4

737

0 1 17 −17

0 0 0 00 0 −27 −570 0 10

7257

=

1 0 4

737

0 1 17 −17

0 0 107

257

0 0 −27 −570 0 0 0

F03 =

7

10F3 → E10 =

1 0 0 0 00 1 0 0 00 0 7

10 0 00 0 0 1 00 0 0 0 1

Entonces

1 0 0 0 00 1 0 0 00 0 7

10 0 00 0 0 1 00 0 0 0 1

1 0 4

737

0 1 17 −17

0 0 107

257

0 0 −27 −570 0 0 0

=

1 0 4

737

0 1 17 −17

0 0 1 52

0 0 −27 −570 0 0 0

F01 = F1 − 4

7F3F

02 = F2 − 1

7F3F

03 = F3 +

27F4

→ E13E12E11 =

1 0 −47 0 00 1 −17 0 00 0 1 0 00 0 2

7 1 00 0 0 0 1

Entonces

1 0 −47 0 00 1 −17 0 00 0 1 0 00 0 2

7 1 00 0 0 0 1

1 0 4

737

0 1 17 −17

0 0 1 52

0 0 −27 −570 0 0 0

=

1 0 0 −10 1 0 −120 0 1 5

20 0 0 00 0 0 0

Page 302: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

290 CAPÍTULO 11. MATRICES

Esta matriz es la matriz escalonada reducida por filas de A. Ahora debemosaplicar transformaciones elementales entre columnas para reducirla a su formacanónica.

C04 = C4 + C1 → E

01 =

1 0 0 10 1 0 00 0 1 00 0 0 1

Entonces

1 0 0 −10 1 0 −120 0 1 5

20 0 0 00 0 0 0

1 0 0 10 1 0 00 0 1 00 0 0 1

=

1 0 0 00 1 0 −120 0 1 5

20 0 0 00 0 0 0

C04 = C4 +

1

2C2 → E

02 =

1 0 0 00 1 0 1

20 0 1 00 0 0 1

Entonces

1 0 0 00 1 0 −120 0 1 5

20 0 0 00 0 0 0

1 0 0 00 1 0 1

20 0 1 00 0 0 1

=

1 0 0 00 1 0 00 0 1 5

20 0 0 00 0 0 0

C04 = C4 − 5

2C3 → E

03 =

1 0 0 00 1 0 00 0 1 −520 0 0 1

Entonces

1 0 0 00 1 0 00 0 1 5

20 0 0 00 0 0 0

1 0 0 00 1 0 00 0 1 −520 0 0 1

=

1 0 0 00 1 0 00 0 1 00 0 0 00 0 0 0

Esta es la matriz canónica de rango 3 equivalente a la matriz dada. Las matricesde paso son entonces

P = E01E

02E

03 =

1 0 0 10 1 0 1

20 0 1 −520 0 0 1

Page 303: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

11.7. MATRICES ELEMENTALES 291

y

Q = E13E12 · · ·E1 =

15

15 0 0 −25

310 −15 0 0 − 1

10− 110

25 0 0 7

10−35 25 0 1 1

5−3 2 1 0 0

y se cumple

15

15 0 0 −25

310 −15 0 0 − 1

10− 110

25 0 0 7

10−35 25 0 1 1

5−3 2 1 0 0

1 3 1 02 −1 1 1−1 11 1 −20 2 0 −1−1 1 1 3

1 0 0 10 1 0 1

20 0 1 −520 0 0 1

=

1 0 0 00 1 0 00 0 1 00 0 0 00 0 0 0

Page 304: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

292 CAPÍTULO 11. MATRICES

Page 305: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 12

Determinantes

12.1. Formas multilineales. Propiedades

Ejercicio 61 Sea el espacio vectorial R2. Se considera la aplicación f : R2 ×R2 → R definida por

f(x,y) = x1y2 − x2y1

con x = (x1, x2),y = (y1, y2). Estudiar si f es una forma bilineal. ¿Es simétri-ca? ¿Es antisimétrica? ¿Es alternada?Solución: Veamos que f es lineal respecto al primer factor; del mismo modo

se vería la linealidad respecto del segundo factor.

f(ax,y) = ax1y2 − ax2y1

= a(x1y2 − x2y1)

= af(x,y)

f(x+ x0,y) = (x1 + x

01)y2 − (x2 + x

02)y1

= x1y2 − x2y1 + x01y2 − x

02y1

= f(x,y) + f(x0,y)

Por tanto, f es una forma multilineal; f no es simétrica, ya que si hacemos x =(1, 1) y y = (3, 4), tenemos f(x,y) = 1 y f(y,x) = −1, luego f(x,y) 6= f(y,x);f es antisimétrica ya que

f(y,x) = y1x2 − y2x1

= −(x1y2 − x2y1)

= −f(x,y)

Al ser f antisimétrica y 2 6= 0, f es alternada.

293

Page 306: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

294 CAPÍTULO 12. DETERMINANTES

Ejercicio 62 En el espacio vectorialM2(R) de las matrices cuadradas de orden2 sobre R, se define la aplicación f :M2(R) → R por

f(A,B) = tr(AB)

Probar que f es una forma bilineal simétrica.Solución: Se cumple

f(λA,B) = tr((λA)B)

= λ tr(AB)

= λf(A,B)

y

f(A1 +A2, B) = tr((A1 +A2)B)

= tr(A1B +A2B)

= tr(A1, B) + tr(A2, B)

= f(A1, B) + f(A2, B)

Luego f es lineal respecto al primer factor; análogamente se comprueba que eslineal respecto al segundo factor. Por tanto, f es una forma bilineal. Se cumpleque f es simétrica ya que

f(A,B) = tr(AB)

= tr(BA)

= f(B,A)

12.2. Determinante de un endomorfismo

Ejercicio 63 Sea f un endomorfismo de R3 definido por

f(e1) = e1 − e2f(e2) = e2 − e1f(e3) = e3

siendo (e1, e2, e3) la base canónica de R3. Consideremos los vectores

v1 = e1 + e2

v2 = e1 + e3

v3 = e2 + e3

que forman base de R3. Calcular el determinante de f en esta nueva base.

Page 307: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

12.3. DETERMINANTEDEUNAMATRIZ CUADRADA. PROPIEDADES295

Solución: Sabemos que el determinante de un endomorfismo no cambia siefectuamos un cambio de base. Por tanto,

det f =

¯¯ 1 −1 0−1 1 00 0 1

¯¯ = 0

Ejercicio 64 Sea E el espacio vectorial de la funciones reales de variable realgenerado por la funciones 1, sin y cos. Calcular el determinante del endomorfis-mo f de E definido por la derivación.Solución: Supongamos que f1(x) = 1, f2(x) = sinx y f3(x) = cosx. En-

tonces, f 01(x) = 0, f02(x) = cosx y f

03(x) = − sinx. Entonces

f(1) = 0

f(sin) = cos

f(cos) = − sinPor tanto,

det f =

¯¯ 0 0 00 0 −10 1 0

¯¯ = 0

12.3. Determinante de una matriz cuadrada. PropiedadesEjercicio 65 Demostrar que el valor del siguiente determinante¯

¯ 1 9 1 32 6 1 82 2 1 31 5 1 9

¯¯

es múltiplo de 11.Solución: Al sumar a la cuarta fila la tercera multiplicada por 10, la segunda

por 100 y la primera por 1000, se tiene¯¯ 1 9 1 32 6 1 82 2 1 31 5 1 9

¯¯ =

¯¯ 1 9 1 3

2 6 1 82 2 1 31221 9625 1111 3839

¯¯

= 11

¯¯ 1 9 1 32 6 1 82 2 1 3111 875 101 349

¯¯

Por tanto, el valor del determinante es múltiplo de 11.

Page 308: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

296 CAPÍTULO 12. DETERMINANTES

Ejercicio 66 Calcular el valor del siguiente determinante¯¯¯

1 2 3 4 51 2 4 5 62 3 5 7 9−1 0 0 1 22 0 1 3 0

¯¯¯

Solución: Desarrollaremos este determinante por la fila cuarta.¯¯¯

1 2 3 4 51 2 4 5 62 3 5 7 9−1 0 0 1 22 0 1 3 0

¯¯¯ =

¯¯¯5 2 3 4 −36 2 4 5 −49 3 5 7 −50 0 0 1 05 0 1 3 −6

¯¯¯

=

¯¯ 5 2 3 −36 2 4 −49 3 5 −55 0 1 −6

¯¯

=

¯¯ −10 2 3 15−14 2 4 20−16 3 5 250 0 1 0

¯¯

= −¯¯ −10 2 15−14 2 20−16 3 25

¯¯

= 10

¯¯ 5 2 37 2 48 3 5

¯¯

= 10

¯¯ 5 2 37 2 41 1 1

¯¯

= 10

¯¯ 2 −1 33 −2 40 0 1

¯¯

= 10

¯2 −13 −2

¯= 10 (−1) = −10

Ejercicio 67 El determinante de Vandermonde de orden 3 tiene la siguienteforma

D =

¯¯ 1 1 1a b ca2 b2 c2

¯¯

Page 309: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

12.3. DETERMINANTEDEUNAMATRIZ CUADRADA. PROPIEDADES297

Demostrar que D = (b− a)(c− a)(c− b).Solución:¯

¯ 1 1 1a b ca2 b2 c2

¯¯ =

¯¯ 1 0 0a b− a c− aa2 (b− a)(b+ a) (c− a)(c+ a)

¯¯

= (b− a)(c− a)

¯1 1

b+ a c+ a

¯= (b− a)(c− a)

¯1 0

b+ a c− b

¯= (b− a)(c− a)(c− b)

Ejercicio 68 Calcular el siguiente determinante¯¯¯3 1 1 · · · 11 3 1 · · · 11 1 3 · · · 1.........

. . ....

1 1 1 · · · 3

¯¯¯

Solución:¯¯¯3 1 1 · · · 11 3 1 · · · 11 1 3 · · · 1.........

. . ....

1 1 1 · · · 3

¯¯¯ =

¯¯¯2 + n 2 + n 2 + n · · · 2 + n1 3 1 · · · 11 1 3 · · · 1...

......

. . ....

1 1 1 · · · 3

¯¯¯

= (2 + n)

¯¯¯1 1 1 · · · 10 2 0 · · · 00 0 2 · · · 0.........

. . ....

0 0 0 · · · 2

¯¯¯

= 2n−1 (2 + n)

Ejercicio 69 Sea A una matriz cuadrada de orden n cuyos elementos aij sonfunciones reales derivables de variable x real. Se designa por aj los n vectores-columna de A y se escribe

f(x) = detA = det(a1, ..., aj , ..., an)

Demostrar que

f 0(x) =nXj=1

det(a1, ..., aj−1, a0j , aj+1, ..., an)

Page 310: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

298 CAPÍTULO 12. DETERMINANTES

Deducir de aquí que se cumple

f 0(x) =d

dx[|A|] =

nXi,j=1

d

dx[aij ] Aij

Deducir de aquí que se cumple

Aij =∂

∂aij[|A|]

Como aplicación, calcular el valor del determinante de orden n cuyos elementosson todos iguales a 1 salvo los de la diagonal principal que son iguales a 1 + x.Solución: Por definición se tiene

f(x) =Xσ∈Sn

(σ) aσ(1)1 · · · aσ(j)j · · · aσ(n)n

Por tanto,

f 0(x) =Xσ∈Sn

(σ)d

dx

£aσ(1)1 · · · aσ(j)j · · · aσ(n)n

¤Se cumple que

Xσ∈Sn

(σ)d

dx

£aσ(1)1 · · · aσ(j)j · · · aσ(n)n

¤=

Xσ∈Sn

(σ)

nXj=1

aσ(1)1 · · · d

dx

£aσ(j)j

¤ · · · aσ(n)n

=nXj=1

ÃXσ∈Sn

(σ) aσ(1)1 · · · d

dx

£aσ(j)j

¤ · · · aσ(n)n!

=nXj=1

det(a1, ..., aj−1, a0j , aj+1, ..., an)

luego

f 0(x) =nXj=1

det(a1, ..., aj−1, a0j , aj+1, ..., an)

De aquí, desarrollando cada determinante por la columna j, se obtiene

f 0(x) =nXj=1

det(a1, ..., aj−1, a0j, aj+1, ..., an)

=nXj=1

ÃnXi=1

a0ijAij

!

=nX

i,j=1

d

dx[aij ] Aij

Page 311: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

12.3. DETERMINANTEDEUNAMATRIZ CUADRADA. PROPIEDADES299

luego

f 0(x) =nX

i,j=1

d

dx[aij ] Aij

Si ahora suponemos que

f(a11, ..., aij , ..., ann) = detA

de la fómula anterior deducimos

∂aij[detA] = Aij

Sea

Dn =

¯¯¯1 + x 1 · · · 11 1 + x · · · 1...

.... . .

...1 1 · · · 1 + x

¯¯¯

y supongamos quef(x) = Dn

entonces

f 0(x) =

¯¯¯1 1 · · · 10 1 + x · · · 1...

.... . .

...0 1 · · · 1 + x

¯¯¯+

¯¯¯1 + x 0 · · · 11 1 · · · 1...

.... . .

...1 0 · · · 1 + x

¯¯¯+ · · ·+¯

¯¯1 + x 1 · · · 01 1 + x · · · 0...

.... . .

...1 1 · · · 1

¯¯¯

= nDn−1

Por tanto,

f 0(x) = nDn−1f 00(x) = n(n− 1)Dn−2f 000(x) = n(n− 1)(n− 2)Dn−3

...

f (n−2)(x) = n(n− 1)(n− 2) · · · 3D2

f (n−1)(x) = n!(1 + x)

f (n)(x) = n!

Aplicando la fórmula de Taylor a f en x = 0 se tiene

f(x) = f(0) +f 0(0)1!

+f 00(0)2!

+ · · ·+ f (n−1)(0)(n− 1)! x

n−1 +f (n)(0)

n!xn

Page 312: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

300 CAPÍTULO 12. DETERMINANTES

y teniendo en cuenta que para todo 2 ≤ i ≤ n se cumple

Di(0) = 0

entonces

f(x) =n!

(n− 1)!xn−1 +

n!

n!xn

= nxn−1 + xn

= (n+ x)xn−1

Por tanto,Dn = (n+ x)xn−1

Ejercicio 70 Calcular el rango de la siguiente matriz

A =

1 7 5 3 −20 4 2 2 02 −2 4 0 13 −1 7 1 3

Solución: Observemos que ¯

1 70 4

¯6= 0

Añadiendo la tercera fila y las demás columnas, obtenemos menores de orden 3.Observemos que ¯

¯ 1 7 50 4 22 −2 4

¯¯ = 8 6= 0

Añadiendo la cuarta fila y las demás columnas, obtenemos menores de orden 4.Observemos que¯

¯ 1 7 5 30 4 2 22 −2 4 03 −1 7 1

¯¯ = 0 y

¯¯ 1 7 5 −20 4 2 02 −2 4 13 −1 7 3

¯¯ = 0

Por tanto, rang A = 3 y la cuarta fila es combinación lineal de las demás filas;en efecto, se cumple ¯

¯ 1 7 5 30 4 2 22 −2 4 0x y z t

¯¯ = 16x− 8z + 8t

y16 · 3− 8 · 7 + 8 · 1 = 0

Page 313: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

12.3. DETERMINANTEDEUNAMATRIZ CUADRADA. PROPIEDADES301

Ejercicio 71 Calcular unas ecuaciones homogéneas del subespacio S de R4 gen-erado por los vectores (1, 1, 1, 1) y (1, 0, 1, 1).Solución: Sean (x, y, z, t) las coordenadas de los vectores del subespacio

S = h(1, 1, 1, 1), (1, 0, 1, 1)i. Entonces, el rango de la siguiente matriz

A =

1 1 x1 0 y1 1 z1 1 t

debe ser 2. En consecuencia, todos los menores de A de orden 3 deben ser nulos.Al ser (1, 1, 1, 1) y (1, 0, 1, 1) linealmente independientes, la dimensión de S es2. Por tanto, habrá dos ecuaciones homogéneas definidoras de S que pueden ser¯

¯ 1 1 x1 0 y1 1 z

¯¯ = x− z = 0 y

¯¯ 1 1 x1 0 y1 1 t

¯¯ = x− t = 0

Por tanto,S = {(x, y, z, t) ∈ R4 : x = z = t}

Ejercicio 72 Calcular la inversa de la siguiente matriz

A =

1 1 11 a a2

1 a2 a

siendo a3 = 1 y a 6= 1.Solución: Se cumple

detA =

¯¯ 1 1 11 a a2

1 a2 a

¯¯ = −a4 + 3a2 − 2a

Como a3 = 1, entonces detA = −a + 3a2 − 2a = 3a(a − 1). Además comoa3 − 1 = (a − 1)(a2 + a + 1) = 0 y a 6= 1, se tiene a2 + a + 1 = 0. Por tanto,a 6= 0 y, en consecuencia, detA 6= 0. Calculemos ahora la matriz adjunta de A a2 − a a2 − a a2 − a

a2 − a a− 1 1− a2

a2 − a 1− a2 a− 1

= (a− 1) a a a

a 1 −(1 + a)a −(1 + a) 1

Observando que la matriz A es simétrica, tenemos

A−1 =1

3a

a a aa 1 −(1 + a)a −(1 + a) 1

=1

3a

a a aa a3 a2

a a2 a3

Page 314: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

302 CAPÍTULO 12. DETERMINANTES

donde hemos tenido presente que a3 = 1 y a2 = −(1 + a). Por tanto

A−1 =1

3

1 1 11 a2 a1 a a2

Page 315: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 13

Sistemas de ecuacioneslineales

Ejercicio 73 Discutir y resolver el sistema siguiente

2x+ 4y + 5z = 1x+ 3y + 3z = −14x+ 5y + 4z = 23x+ 3y + 2z = 22x+ 5y − z = −7

Solución: Escalonemos la matriz ampliada del sistema

2 4 5 11 3 3 −14 5 4 23 3 2 22 5 −1 −7

∼2 4 5 10 2 1 −30 −3 −6 00 −6 −11 10 1 −6 −8

F1

2F2 − F1F3 − 2F12F4 − 3F1F5 − F1

2 4 5 10 2 1 −30 0 −9 −90 0 −8 −80 0 −13 −13

F1F2

2F3 + 3F2F4 + 3F22F5 − F2

2 4 5 10 2 1 −30 0 1 10 0 0 00 0 0 0

F1F2−F3/9

F4/8− F3/9F5/13− F3/9

Hemos obtenido la matriz escalonada equivalente por filas a la matriz ampliadadel sistema dado. El sistema escalonado equivalente es

2x+ 4y + 5z = 12y + z = −3

z = 1

cuyo número de ecuaciones (suprimidas las ecuaciones triviales, o sea las filasde ceros de la matriz) es igual al número de incógnitas. Por tanto, el sistema es

303

Page 316: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

304 CAPÍTULO 13. SISTEMAS DE ECUACIONES LINEALES

compatible determinado y su solución es, sustituyendo los valores de las incóg-nitas hacia arriba

x = 2y = −2z = 1

Ejercicio 74 Discutir y resolver el sistema

x+ y + z + t− u = 1−x− y − z − t+ 2u = 2

x+ y + z + 2t = 0

Solución: Escalonemos la matriz ampliada del sistema 1 1 1 1 −1 1−1 −1 −1 −1 2 21 1 1 2 0 0

∼ 1 1 1 1 −1 10 0 0 0 1 30 0 0 1 1 −1

F1F2 + F1F3 − F1

1 1 1 1 −1 10 0 0 1 1 −10 0 0 0 1 3

F1F3F2

Hemos obtenido la matriz escalonada equivalente por filas a la matriz ampliadadel sistema dado. El número de ecuaciones no triviales del sistema escalonadocorrespondiente es menor que el número de incógnitas. Por tanto, el sistema escompatible indeterminado. Las incógnitas no principales son y y z como puedeobservarse en la matriz escalonada. El sistema escalonado equivalente es

x+ t− u = 1− y − zt+ u = −1

u = 3

Por sustituciones hacia arriba obtenemos las soluciones

x = 8− y − zy = yz = zt = −4u = 3

Ahora podemos obtener soluciones del sistema dando valores a y y z.

Ejercicio 75 Discutir y resolver el sistema

x− 3y = −103x+ 8y = 12

−5x− 19y = −35

Page 317: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

305

Solución: Escalonemos la matriz ampliada del sistema 1 −3 103 8 12−5 −19 −35

∼ 1 −3 100 17 −180 −34 15

F1F2 − 3F1F3 + 5F1

1 −3 100 17 −180 0 −21

F1F2

F3 + 2F2

Hemos obtenido la matriz escalonada equivalente por filas a la matriz ampliadadel sistema dado. Podemos observar enseguida que el sistema escalonado equiva-lente tiene una contradicción en la última ecuación. Por consiguiente el sistemaes incompatible.

Ejercicio 76 Discutir y resolver el siguiente sistema

3x+ 2y + z = 02x+ 2y + 5z = 0−7x− 4y + 2z = 0

Solución: Podemos ver enseguida que el sistema es homogéneo porque sus

términos independientes son todos iguales a cero. Por consiguiente, el sistema escompatible porque admite al menos una solución: la solución trivial. Para sabersi es o no indeterminado, escalonemos la matriz de coeficientes del sistema 3 2 1

2 2 5−7 −4 2

∼ 3 2 10 2 130 2 13

F13F2 − 2F13F3 + 7F1

3 2 10 2 130 0 0

F1F2

F3 − F2

Hemos obtenido la matriz escalonada equivalente por filas a la matriz ampliadadel sistema dado. El número de ecuaciones no triviales del sistema escalonadocorrespondiente es menor que el número de incógnitas. Por tanto, el sistema escompatible indeterminado. La incógnita no principal es z como puede observarseen la matriz escalonada. El sistema escalonado equivalente es

3x+ 2y = −z2y = −13z

¾Por sustituciones hacia arriba obtenemos las soluciones

x = 4z

y = −132z

z = z

Ahora podemos obtener soluciones del sistema dando valores a z.

Page 318: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

306 CAPÍTULO 13. SISTEMAS DE ECUACIONES LINEALES

Ejercicio 77 Discutir y resolver cuando sea posible, según los valores del parámetroλ, el siguiente sistema

2y − z = λ3x− 2z = 11

y + z = 62x+ y − 4z = λ

Solución: Escalonemos la matriz ampliada del sistema

0 2 −1 λ3 0 −2 110 1 1 62 1 −4 λ

∼3 0 −2 110 2 −1 λ0 1 1 62 1 −4 λ

F2F1F3F4

3 0 −2 110 2 −1 λ0 1 1 60 3 −8 3λ− 22

F1F2F3

3F4 − 2F1∼

3 0 −2 110 2 −1 λ0 0 3 12− λ0 0 −13 3λ− 44

F1F2

2F3 − F22F4 − 3F2

3 0 −2 110 2 −1 λ0 0 3 12− λ0 0 0 −4λ+ 24

F1F2F3

3F4 + 13F3

En primer lugar, vemos que el sistema será incompatible cuando

λ 6= 6porque entonces la última ecuación del sistema escalonado será una contradic-ción. El sistema será compatible determinado cuando

λ = 6

ya que el número de ecuaciones no triviales del sistema escalonado es igual alnúmero de incógnitas. El sistema escalonado equivalente para este valor de λ es

3x− 2z = 112y − z = 6

3z = 6

cuya solución es

x = 5y = 4z = 2

Ejercicio 78 Resolver el sistema, caso de ser compatible

2x− 5y + z − 2t+ 2u = 03x− 2y − z + t− 2u = 02x+ y − z + 2t− 3u = 0x− 2y + z − t+ u = 0

Page 319: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

307

Solución: El sistema es homogéneo, tiene 4 ecuaciones y 5 incógnitas (osea, es de rango 5 como máximo). Por consiguiente, el sistema es compatibleindeterminado. Para conocer el número de grados de libertad (número de incóg-nitas no principales) es necesario calcular el rango de la matriz del sistema.

2 −5 1 −2 23 −2 −1 1 −22 1 −1 2 −31 −2 1 −1 1

1 −2 1 −1 13 −2 −1 1 −22 1 −1 2 −32 −5 1 −2 2

F4

F11 −2 1 −1 13 −2 −1 1 −22 1 −1 2 −32 −5 1 −2 2

1 −2 1 −1 10 4 −4 4 −50 5 −3 4 −50 −1 −1 0 0

F2 − 3F1F3 − 2F1F4 − 2F1

1 −2 1 −1 10 4 −4 4 −50 5 −3 4 −50 −1 −1 0 0

1 −2 1 −1 10 1 1 0 00 5 −3 4 −50 4 −4 4 −5

−F4

F21 −2 1 −1 10 1 1 0 00 5 −3 4 −50 4 −4 4 −5

1 −2 1 −1 10 1 1 0 00 0 −8 4 −50 0 −8 4 −5

F3 − 5F2F4 − 4F2

1 −2 1 −1 10 1 1 0 00 0 −8 4 −50 0 −8 4 −5

1 −2 1 −1 10 1 1 0 00 0 −8 4 −50 0 0 0 0

F4 − F3

luego, la matriz tiene rango 3 y por tanto, el sistema es compatible indeterminadocon 5−3 = 2 grados de libertad. Para resolverlo, utilizamos la matriz escalonadaequivalente. El sistema equivalente es entonces

x− 2y + z − t+ u = 0y + z = 0

−8z + 4t− 5u = 0

Por tanto, tomando como incógnitas no principales t y u, se tiene

x− 2y + z = t− uy + z = 0

−8z = −4t+ 5ut = tu = u

es decir,

x = −18(4t− 7u)y = −18(4t− 5u)z = 1

8(4t− 5u)t = tu = u

Page 320: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

308 CAPÍTULO 13. SISTEMAS DE ECUACIONES LINEALES

Ejercicio 79 Determinar para qué valores de a el sistema es compatible

ax+ a2y + a3z = ax+ ay + a2z = a2

x+ y + az = a3

x+ y + z = a4

Solución: El sistema tiene 4 ecuaciones y 3 incógnitas. Por consiguiente

puede ser incompatible si el rango es 4. Vamos a calcular los valores para losque el sistema no es compatible¯

¯ a a2 a3 a1 a a2 a2

1 1 a a3

1 1 1 a4

¯¯ = a

¯¯ 1 a a2 11 a a2 a2

1 1 a a3

1 1 1 a4

¯¯ =

a

¯¯ 1 a a2 10 0 0 a2 − 10 1− a a− a2 a3 − 10 1− a 1− a2 a4 − 1

¯¯ F1F2 − F1F3 − F1F4 − F1

=

a(a2 − 1)¯¯ 0 0 11− a a(1− a) −(1− a)(a2 + a+ 1)1− a (1− a)(1 + a) −(1− a)(a+ 1)(a2 + 1)

¯¯ =

a(a2 − 1)(1− a)2

¯¯ 0 0 11 a − ¡a2 + a+ 1

¢1 1 + a −(a+ 1)(a2 + 1)

¯¯ =

−a(a+ 1)(1− a)3¯1 a1 1 + a

¯= −a(a+ 1)(1− a)3

De la ecuación−a(a+ 1)(1− a)3 = 0

se obtienen las soluciones: a = 0, a = −1, y a = 1. Estos valores hacen que elrango de la matriz ampliada no sea 4 y en consecuencia, que el sistema puedaser compatible. Así pues, tenemos:

1. Si a 6= 0 y a 6= −1 y a 6= 1, el sistema no tiene solución porque el rango dela matriz ampliada es 4 y el rango de la matriz del sistema es a lo sumo3.

2. Si a = 0, entonces las matrices del sistema son0 0 0 01 0 0 01 1 0 01 1 1 0

Page 321: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

309

y los rangos son rang A = rang (A|b) = 3. Por consiguiente, el sistemaes compatible determinado ya que el rango coincide con el número de in-cógnitas. El sistema que resulta es homogéneo

x = 0x+ y = 0

x+ y + z = 0

y por tanto la solución es la trivial, o sea, x = 0, y = 0, z = 0.

3. Si a = −1, entonces las matrices del sistema son−1 1 −1 −11 −1 1 11 1 −1 −11 1 1 1

cuyos rangos vamos a calcular por el método de Gauss:

−1 1 −1 −11 −1 1 11 1 −1 −11 1 1 1

∼−1 1 −1 −10 0 0 00 2 −2 −20 2 0 0

F1F2 + F1F3 + F1F4 + F1

−1 1 −1 −10 2 0 00 2 −2 −20 0 0 0

∼−1 1 −1 −10 2 0 00 0 −2 −20 0 0 0

F2F3 − F2

de donde rang A = rang (A|b) = 3. Por consiguiente, el sistema es com-patible determinado ya que el rango coincide con el número de incógnitas.El sistema equivalente que resulta es

−x+ y − z = −12y = 0

−2z = −2

cuya solución es, x = y = 0, z = 1.

4. Si a = 1, las matrices del sistema son1 1 1 11 1 1 11 1 1 11 1 1 1

cuyos rangos son evidentemente rang A = rang (A|b) = 1. Por consigu-iente, el sistema es compatible indeterminado con 3 − 1 = 2 grados de

Page 322: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

310 CAPÍTULO 13. SISTEMAS DE ECUACIONES LINEALES

libertad. Para resolverlo podemos tomar como incógnitas libres por ejem-plo y y z. Entonces, la solución del sistema es

x = 1− y − zy = yz = z

Ejercicio 80 Discutir y resolver, según los valores de los parámetros a y b, elsiguiente sistema

x+ ay + a2z = 1x+ ay + abz = a

bx+ a2y + a2bz = a2b

Solución: El sistema tiene 3 ecuaciones y 3 incógnitas. Averiguemos para

qué valores de a y b el sistema tiene rango 3. Para ello, observemos que¯¯ 1 a a2

1 a abb a2 a2b

¯¯ = a2

¯¯ 1 1 a1 1 bb a ab

¯¯ =

a2

¯¯ 1 1 a1 1 bb a ab

¯¯ = a2

¯¯ 1 1 a0 0 b− a0 a− b 0

¯¯ F1F2 − F1F3 − bF1(b 6= 0)

=

a2(a− b)

¯¯ 1 1 a0 0 b− a0 1 0

¯¯ = a2(a− b)

¯0 b− a1 0

¯= a2(a− b)2

por tanto, si a 6= 0 y a 6= b, el rango del sistema es 3 y, en consecuencia, elsistema es compatible determinado. Analicemos todos los casos posibles:

1. Si a 6= 0 y a 6= b, rang A = rang (A|b) = 3 y el sistema es compatibledeterminado. La solución puede hallarse por la regla de Cramer

x =

¯¯ 1 a a2

a a aba2b a2 a2b

¯¯

a2(a− b)2=

a2(1− b)

a− b

y =

¯¯ 1 1 a2

1 a abb a2b a2b

¯¯

a2(a− b)2=

b(a2 − 1)a(a− b)

z =

¯¯ 1 a 11 a ab a2 a2b

¯¯

a2(a− b)2=

1− a

a(a− b)

Page 323: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

311

2. Si a = 0, las matrices del sistema son 1 0 0 11 0 0 0b 0 0 0

cuyos rangos son evidentemente rang A = 1 y rang (A|b) = 2. Por con-siguiente, el sistema es incompatible.

3. Si a = b, entonces las matrices del sistema son 1 a a2 11 a a2 aa a2 a3 a3

cuyos rangos son rang A = 1 (ya que las tres columnas son dependientes dela primera; las otras dos se obtienen multiplicando esta última por a y a2,respectivamente; obsérvese que a 6= 0, porque de lo contrario estaríamosen el caso anterior). El rango de la matriz ampliada puede ser 2 ya que¯

1 11 a

¯= a− 1

puede ser cero cuando a = 1 y el rango es 1, o bien distinto de cero cuandoa 6= 1 y el rango es 2. Así pues tenemos dos subcasos:

a) Si a = b 6= 1, entonces rang A = 1 y rang (A|b) = 2 y el sistema esincompatible.

b) Si a = b = 1, entonces las matrices del sistema son 1 1 1 11 1 1 11 1 1 1

cuyos rangos son evidentemente: rang A = rang (A|b) = 1 y el sis-tema es compatible indeterminado con 3 − 1 = 2 grados de libertad.Su solución es

x = 1− y − zy = yz = z

Page 324: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

312 CAPÍTULO 13. SISTEMAS DE ECUACIONES LINEALES

Page 325: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 14

Diagonalización deendomorfismos

14.1. Vectores y valores propios. Polinomio car-acterístico

Problema 1: Hallar los posibles valores propios de un endomorfismo idem-potente (f2 = f ◦ f = f) de un espacio vectorial E.Solución: Sea k un valor propio de f . Sea v un vector propio de valor propio

k:f(v) = kv

Entoncesf2(v) = f(f(v)) = f(kv) = kf(v) = k · kv = k2v

Pero, por ser f idempotente,

f2(v) = f(v) = kv

Por tanto,

k2v = kv ⇒ (k2 − k)v = 0 ⇒ k2 − k = 0 ⇒⇒ k(k − 1) = 0 ⇒ k = 0, k = 1

En conclusión, los únicos valores propios posibles son 0 y 1.

Problema 2: Calcular el polinomio característico de la matriz

A =

1 −4 −1 −42 0 5 −4−1 1 −2 3−1 4 −1 6

313

Page 326: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

314 CAPÍTULO 14. DIAGONALIZACIÓN DE ENDOMORFISMOS

Solución: Usaremos el teorema 3:

pA (x) = (−1)4 x4 + (−1)3A3 x3 + (−1)2A2 x2 + (−1)A1 x+ detA,

donde Ai es la suma de los menores de orden 4−i que tienen la diagonal principalsobre la diagonal principal de A :

A3 = a11 + a22 + a33 + a44 = 1 + 0 + (−2) + 6 = 5A2 =

¯1 −42 0

¯+

¯1 −1−1 −2

¯+

¯1 −4−1 6

¯+

¯0 51 −2

¯+

+

¯0 −44 6

¯+

¯ −2 3−1 6

¯= 8− 3 + 2− 5 + 16− 9 = 9

A1 =

¯¯ 1 −4 −12 0 5−1 1 −2

¯¯+¯¯ 1 −4 −42 0 −4−1 4 6

¯¯+¯¯ 1 −1 −4−1 −2 3−1 −1 6

¯¯+¯¯ 0 5 −41 −2 34 −1 6

¯¯ =

= −3 + 16− 8 + 2 = 7detA = 2

Así pues,

pA(x) = x4 − 5x3 + 9x2 − 7x+ 2

Problema 3: ¿ Son equivalentes (asociadas al mismo endomorfismo) lasmatrices

A =

1 2 3 40 2 1 21 3 4 50 1 2 4

, B =

1 1 2 32 3 4 50 1 0 11 2 3 4

?Solución: Por el corolario del teorema 3, sabemos que dos matrices asociadas

al mismo endomorfismo, o equivalentes, tienen la misma traza, pero

tr A = 1 + 2 + 4 + 4 = 11

tr B = 1 + 3 + 0 + 4 = 8

Por tanto, A y B no son equivalentes.

14.2. Diagonalización de matrices

Problema 4: Calcular los valores y vectores propios de

A =

1 2 0−1 3 10 1 1

Page 327: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

14.2. DIAGONALIZACIÓN DE MATRICES 315

Solución: Calculamos primero el polinomio característico de A :

PA(x) =

¯¯ 1− x 2 0−1 3− x 10 1 1− x

¯¯ = (1− x)2(3− x) + (1− x) =

= (1− x)((1− x)(3− x) + 1) = (1− x)(x2 − 4x+ 4) == (1− x)(x− 2)2

Los valores propios son 1 y 2. Calculemos ahora los vectores propios asociadosa cada uno de los valores propios:

a. k = 1. La matriz A− I es: 1 2 0−1 3 10 1 1

− 1 0 00 1 00 0 1

=

0 2 0−1 2 10 1 0

Calculemos Nuc (A− I) : Un vector (x1, x2, x3) pertenece a Nuc (A− I)si cumple: 0 2 0

−1 2 10 1 0

x1x2x3

=

000

Por tanto, ½

2x2 = 0−x1 + 2x2 + x3 = 0

⇒½

x2 = 0x1 = x3

⇒ Nuc (A− I) = {(x1, 0, x1)} = h(1, 0, 1)iLos vectores propios de A de valor propio 1 son los vectores pertenecientesa h(1, 0, 1)i.

b. k = 2. La matriz A− 2I es: 1 2 0−1 3 10 1 1

− 2 0 00 2 00 0 2

=

−1 2 0−1 1 10 1 −1

Calculemos Nuc (A−2I) : Un vector (x1, x2, x3) pertenece a Nuc (A−2I)si cumple: −1 2 0

−1 1 10 1 −1

x1x2x3

=

000

Por tanto, −x1 + 2x2 = 0

−x1 + x2 + x3 = 0x2 − x3 = 0

⇒½

x1 = 2x2x3 = x2

⇒ Nuc (A− 2I) = {(2x2, x2, x2)} = h(2, 1, 1)iLos vectores propios de A de valor propio 2 son los vectores pertenecientesa h(2, 1, 1)i.

Page 328: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

316 CAPÍTULO 14. DIAGONALIZACIÓN DE ENDOMORFISMOS

Problema 5: Sean E un espacio vectorial sobre K y f un endomorfismo deE. Probar que f es inyectiva si, y sólo si, 0 no es un valor propio de f .Solución: Queremos ver:

f inyectiva ⇐⇒ 0 no es valor propio de f

Esto es equivalente a demostrar:

f no es inyectiva ⇐⇒ 0 es valor propio de f

Demostraremos esta segunda equivalencia:

0 es valor propio de f ⇐⇒ existe v 6= 0 tal que f(v) = 0 · v = 0 ⇐⇒⇐⇒ existe v 6= 0 tal que v ∈ Nuc f ⇐⇒⇐⇒ Nuc f 6= {0} ⇐⇒⇐⇒ f no inyectiva.

Problema 6: Calcular los valores y vectores propios de

B =

5 0 −40 3 02 0 −1

Solución: Calculamos primero el polinomio característico de B :

PB(x) =

¯¯ 5− x 0 −4

0 3− x 02 0 −1− x

¯¯ = (3− x)

¯5− x −42 −1− x

¯=

= (3− x)((5− x)(−1− x) + 8) = (3− x)(x2 − 4x+ 3) == (3− x)2(1− x)

Los valores propios son 1 y 3. Calculemos ahora los vectores propios asociadosa cada uno de los valores propios:

a. k = 1. La matriz B − I es: 5 0 −40 3 02 0 −1

− 1 0 00 1 00 0 1

=

4 0 −40 2 02 0 −2

Calculemos Nuc (B − I) : Un vector (x1, x2, x3) pertenece a Nuc (B − I)si cumple: 4 0 −4

0 2 02 0 −2

x1x2x3

=

000

Page 329: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

14.2. DIAGONALIZACIÓN DE MATRICES 317

Por tanto, ½4x1 − 4x3 = 02x2 = 0

⇒½

x2 = 0x1 = x3

⇒ Nuc (B − I) = {(x1, 0, x1)} = h(1, 0, 1)iLos vectores propios de B de valor propio 1 son los vectores pertenecientesa h(1, 0, 1)i.

b. k = 3. La matriz B − 3I es: 5 0 −40 3 02 0 −1

− 3 0 00 3 00 0 3

=

2 0 −40 0 02 0 −4

Calculemos Nuc (B−3I) : Un vector (x1, x2, x3) pertenece a Nuc (B−3I)si cumple: 2 0 −4

0 0 02 0 −4

x1x2x3

=

000

Por tanto,

{2x1 − 4x3 = 0 ⇒ {x1 = 2x3 ⇒⇒ Nuc (B − 3I) = {(2x3, x2, x3)} = h(2, 0, 1), (0, 1, 0)i

Los vectores propios de B de valor propio 3 son los vectores pertenecientesa h(2, 0, 1), (0, 1, 0)i.

Page 330: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

318 CAPÍTULO 14. DIAGONALIZACIÓN DE ENDOMORFISMOS

Page 331: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 15

Forma reducida de Jordan

15.1. Polinomio mínimo

Ejercicio 1: Si E 6= {0} y f = kI, calcular mf (x).

Solución: Supongamos que E 6= {0} y que f = kI. Observamos que elpolinomio p(x) = x− k es un polinomio anulador, porque

p(f) = f − kI = kI − kI = 0.

Además, p es mónico y tiene el menor grado posible. Por tanto,

mf (x) = p(x) = x− k

Ejercicio 2: Sea E = R3, f un endomorfismo de E tal que su polinomiomínimo es mf (x) = (x− 2)3 y u un vector tal que (f − 2I)2u 6= 0. Probar que(u, (f − 2I)u, (f − 2I)2u) es base de E.Solución: Como dim E = 3, basta ver que los tres vectores u, (f − 2I)u y

(f − 2I)2u son linealmente independientes. Observamos primero que son tresvectores no nulos:

(f − 2I)2u 6= 0 por hipótesis

(f − 2I)((f − 2I)u) 6= 0⇒ (f − 2I)u 6= 0(f − 2I)u 6= 0⇒ u 6= 0

Veamos que son linealmente independientes. Supongamos que existen escalaresα0, α1,α2 tales que

α0u+ α1(f − 2I)u+ α2(f − 2I)2u = 0

319

Page 332: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

320 CAPÍTULO 15. FORMA REDUCIDA DE JORDAN

Aplicamos (f − 2I)2 a los dos miembros de la igualdad. Teniendo en cuenta queel polinomio mínimo es mf (x) = (x− 2)3, entonces (f − 2I)3 = 0, y por tanto,también (f − 2I)4 = 0 :

α0(f − 2I)2u+ α1(f − 2I)3u+ α2(f − 2I)4u = (f − 2I)20⇒

⇒ α0(f − 2I)2u+ 0+ 0 = 0⇒⇒ α0(f − 2I)2u 6= 0

Como (f − 2I)2u 6= 0, deducimos que α0 = 0. Así pues, nos queda:

α1(f − 2I)u+ α2(f − 2I)2u = 0

Aplicamos (f − 2I) a los dos miembros:

α1(f − 2I)2u+ α2(f − 2I)3u = (f − 2I)0⇒

⇒ α1(f − 2I)2u+ 0 = 0⇒⇒ α1(f − 2I)2u = 0

Como (f − 2I)2u 6= 0, deducimos que α1 = 0. Así pues, nos queda

α2(f − 2I)2u = 0

Como (f − 2I)2u 6= 0, deducimos que α2 = 0.Por tanto, los vectores u, (f − 2I)u, (f − 2I)2u son linealmente independi-

entes, luego forman una base de E = R3.

15.2. Subespacios invariantesEjercicio 3: Sea E un espacio vectorial sobre K, f un endomorfismo de E, λ

un escalar y u un vector. Supongamos que (f −λI)(u) 6= 0 y (f −λI)2(u) = 0.Sea F el subespacio vectorial generado por u y (f − λI)(u).

a. Probar que (u, (f − λI)u) es una base de F.

b. Probar que F es invariante por f .

c. Encontrar la matriz de f en la base (u, (f − λI)u).

Solución:

a. Para ver que (u, (f−λI)u) es una base de F = hu, (f − λI)ui , basta ver queu y (f − λI)u son linealmente independientes. Sean α y β dos escalarestales que

αu+ β(f − λI)u = 0

Page 333: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

15.2. SUBESPACIOS INVARIANTES 321

Aplicando (f − λI) a ambos miembros de la igualdad, obtenemos

α(f − λI)u+ β(f − λI)2u = (f − λI)0 = 0

Como (f − λI)2u = 0 y (f − λI)u 6= 0, deducimos que α = 0. Nos queda,por tanto,

β(f − λI)u = 0

Nuevamente, como (f − λI)u 6= 0, deducimos que β = 0.

Por tanto, u y (f − λI)u son linealmente independientes, luego formanuna base de F .

b. Para ver que F es invariante por f hace falta ver que

f(F) ⊆ F.Basta demostrarlo para una base. Así pues, sólo hay que probar

1. f(u) ∈ F2. f((f − λI)(u)) ∈ FEn efecto,

1. f(u) = f(u)− λu+ λu = (f − λI)(u) + λu ⇒ f(u) ∈ F2. f((f − λI)(u)) = f2(u)− λf(u) = f2(u)− 2λf(u) + λ2u− λf(u) +

2λf(u)− λ2u =

= (f−λI)2(u)+λf(u)−λ2u = 0+λ(f(u)−λu) = λ(f−λI)(u) ∈ F.

c. Busquemos ahora la matriz de f en la base B = (u, (f−λI)u). En el apartadoanterior hemos visto

f(u) = λu+ (f − λI)u

f((f − λI)u) = λ(f − λI)u

Por tanto, las componentes de f(u) en la base B son (λ, 1), y las compo-nentes de f((f −λI)u) son (0, λ). Por tanto, la matriz de la restricción def a F en la base B es µ

λ 01 λ

Ejercicio 4: Encontrar la descomposición dada por el primer teorema dedescomposición de un endomorfismo involutivo (f2 = I).Solución:

Sea f un endomorfismo tal que f2 = I. Un polinomio anulador es x2 − 1.Calculemos el polinomio mínimo, usando que mf (x) divide a x2 − 1 = (x−

1)(x+ 1). Se pueden dar tres casos:

Page 334: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

322 CAPÍTULO 15. FORMA REDUCIDA DE JORDAN

si mf (x) = x− 1, obtenemos f = I;

si mf (x) = x+ 1, obtenemos f = −I;si mf (x) = (x − 1)(x + 1), aplicando el primer teorema de descomposición,

obtenemos E = E1 ⊕E2.

El polinomio mínimo de la restricción de f a E1 es x − 1 y, por tanto,sobre E1, f es IE1 . Análogamente, sobre E2, f es −IE2 . Si e1, . . . , er esuna base de E1 y er+1, . . . , en una base de E2, la matriz de E en la baseque resulta de la unión de esas dos es

1. . . 0

1−1

0. . .

−1

Observemos que E1, E2 son los subespacios de vectores propios de valorespropios 1,−1 y que la matriz obtenida es una matriz diagonal.

Ejercicio 5:Encontrar la descomposición dada por el primer teorema dedescomposición del endomorfismo f con matriz

A =

1 0 00 −1 10 −1 1

en la base canónica de R3.Solución:

Al calcular las potencias An se ve en seguida que f3 = f2 y, por tanto, x3 − x2

es un polinomio anulador. Así pues, mf (x) divide x3 − x2 = x2(x− 1).Si mf (x) fuera x− 1, obtendríamos f = I, lo cual es falso.Si mf (x) fuera x, obtendríamos mf (f) = f = 0, lo cual es falso.Si mf (x) fuera x2, obtendríamos f2 = 0, lo cual es falso.Si mf (x) fuera (x− 1) · x, obtendríamos f2 = f , lo cual es falso.Así pues, mf (x) = (x − 1)x2 y, por el primer teorema de descomposición,

E = E1 ⊕ E2. Sobre E1, f es IE1 . Sobre E2, f tiene polinomio mínimo x2. Elcálculo de E1 y E2 nos da

E1 = Nuc (f − I) = h(1, 0, 0)i, E2 = Nuc f2 = h(0, 1, 0), (0, 0, 1)i.

En la base e1, e2, e3, la matriz de f es la matriz de A dada.

Page 335: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

15.3. EL TEOREMA DE CAYLEY-HAMILTON 323

Los valores propios son 1 y 0; los subespacios de vectores propios respectivosson h(1, 0, 0)i y h(0, 1, 1)i. Si completamos estos dos vectores hasta obtener unabase de E : e1, e2 + e3, e3, obtenemos la matriz de f 1 0 0

0 0 10 0 0

,

que es triangular.

15.3. El teorema de Cayley-Hamilton

Ejercicio 6: Aplicando el teorema de Cayley-Hamilton, calcular la inversade la matriz

A =

1 2 0−1 3 10 1 1

Solución: El polinomio característico de A es

pA(x) = det (A− xI) =

¯¯ 1− x 2 0−1 3− x 10 1 1− x

¯¯ =

= (1− x)[(3− x)(1− x)− 1] + 2(1− x) =

= (1− x)(3− 3x− x+ x2 − 1) + 2− 2x == (1− x)(x2 − 4x+ 2) + 2− 2x == x2 − 4x+ 2− x3 + 4x2 − 2x+ 2− 2x == −x3 + 5x2 − 8x+ 4

Por el teorema de Cayley-Hamilton, sabemos que el polinomio característico esmúltiplo del polinomio mínimo, y por tanto, es anulador. Por consiguiente, severifica:

−A3 + 5A2 − 8A+ 4 = 0

Multiplicamos por A−1 :

−A2 + 5A− 8 + 4A−1 = 0

Por tanto,

A−1 =A2 − 5A+ 8I

4

Page 336: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

324 CAPÍTULO 15. FORMA REDUCIDA DE JORDAN

Así pues,

A−1 =1

4(A ·A− 5A+ 8I) =

=1

4

−1 8 2−4 8 4−1 4 2

− 5 1 2 0−1 3 10 1 1

+ 8 1 0 00 1 00 0 1

==

1

4

2 −2 21 1 −1−1 −1 5

.

Ejercicio 7: Sea A la matriz

A =

1 0 00 1 00 0 1

2

a. Calcular la matriz M = 2A4 − 7A3 + 9A2 − 5A+ I.

b. Calcular la matriz N = A−3 − 4A−2 + 5A−1 + 4ISolución:

a. El polinomio característico de la matriz A es

pA(x) = det (A− xI) =

¯¯ 1− x 0 0

0 1− x 00 0 1

2 − x

¯¯ =

= (1− x)(1− x)(1

2− x) =

= −(x3 − 52x2 + 2x− 1

2)

Por el teorema de Cayley-Hamilton, sabemos que el polinomio caracterís-tico es anulador:

−(A3 − 52A2 + 2A− 1

2I) = 0⇒ 2A3 − 5A2 + 4A− I = 0⇒⇒ 2A4 − 5A3 + 4A2 −A = 0

Por tanto,

M = 2A4 − 7A3 + 9A2 − 5A+ I =

= (2A4 − 5A3 + 4A2 −A)− 2A3 + 5A2 − 4A+ I =

= 0− 2A3 + 5A2 − 4A+ I = 0

Page 337: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

15.3. EL TEOREMA DE CAYLEY-HAMILTON 325

b. La matriz inversa de A es:

A−1 =

1 0 00 1 00 0 2

Su polinomio característico es

pA−1(x) = det (A−1 − xI) =

¯¯ 1− x 0 0

0 1− x 00 0 2− x

¯¯ =

= (1− x)(1− x)(2− x) =

= −(x3 − 4x2 + 5x− 2)Por el teorema de Cayley-Hamilton, sabemos que el polinomio caracterís-tico es anulador:

−(A−3 − 4A−2 + 5A−1 − 2I) = 0⇒ A−3 − 4A−2 + 5A−1 − 2I = 0⇒⇒ N = A−3 − 4A−2 +5A−1 +4I = A−3 − 4A−2 +5A−1 − 2I) + 6I = 6I.

Ejercicio 8: Calcular el polinomio mínimo de la matriz

A =

−1 i 0 0i −1 i 00 −i −1 i0 0 i −1

.

Solución: Calculemos el polinomio característico de A:

pA(x) = det (A− xI) =

¯¯ −1− x i 0 0

i −1− x i 00 −i −1− x i0 0 i −1− x

¯¯ =

= (−1− x)

¯¯ −1− x i 0−i −1− x i0 i −1− x

¯¯− i

¯¯ i 0 0−i −1− x i0 i −1− x

¯¯ =

= (−1− x)[(−1− x)3 − (1 + x)− (−1− x)]− i[i(−1− x)2 + i] =

= (1 + x)4 + (1 + x)2 + 1

Por el teorema de Cayley-Hamilton, sabemos que el polinomio mínimo es undivisor de pA(x). Pero pA(x) no tiene raíces reales. Por tanto,

mA(x) = pA(x) = (1 + x)4 + (1 + x)2 + 1 =

= t4 + 4t3 + 7t2 + 6t+ 3.

Page 338: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

326 CAPÍTULO 15. FORMA REDUCIDA DE JORDAN

15.4. Matriz canónica de un endomorfismo

Ejercicio 9: Calcular la forma canónica de Jordan de la matriz

A =

2 0 3 01 2 0 30 0 2 00 0 1 2

.

Solución: Su polinomio característico es

pA(x) =

¯¯ 2− x 0 3 0

1 2− x 0 30 0 2− x 00 0 1 2− x

¯¯ = (2− x)4.

dim Nuc (A−2I) = 4−rango (A−2I) = 4−rango

0 0 3 01 0 0 30 0 0 00 0 1 0

= 4−2 = 2

dim Nuc (A−2I)2 = 4−rango (A−2I)2 = 4−rango

0 0 0 00 0 6 00 0 0 00 0 0 0

= 4−1 = 3

Además,(A− 2I)3 = 0

Por tanto, el polinomio mínimo de A es

mA(x) = (x− 2)3.

Veamos qué forma tiene el recuadro expuesto en el procedimiento para obtenerla matriz de Jordan:El número de filas es el exponente del polinomio mínimo: 3El número de elementos en la fila inferior es p1 :

p1 = q1 − q0 = dim Nuc (A− 2I)− dim Nuc I = 2− 0 = 2

El número de elementos en la segunda fila por abajo es p2 :

p2 = q2 − q1 = dim Nuc (A− 2I)2 − dim Nuc (A− 2I) = 3− 2 = 1

El número de elementos en la fila superior es p3 :

p3 = q3 − q2 = dim Nuc (A− 2I)3 − dim Nuc (A− 2I)2 = 4− 3 = 1

Page 339: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

15.4. MATRIZ CANÓNICA DE UN ENDOMORFISMO 327

Tenemos la siguiente situación:

u1 es un vector cualquiera que pertenezca a Nuc (A− 2I)3 pero no a Nuc (A−2I)2. Por ejemplo,

u1 = (0, 0, 1, 0)

Entonces,

(A− 2I)u1 = (3, 0, 0, 1) ∈ Nuc (A− 2I)2\Nuc (A− 2I)(A− 2I)2u1 = (0, 6, 0, 0) ∈ Nuc (A− 2I)

u2 es un vector de Nuc (A − 2I) linealmente independiente con (A − 2I)2u1;por ejemplo

u2 = (−3, 0, 0, 1)En la base B = {(0, 0, 1, 0), (3, 0, 0, 1), (0, 6, 0, 0), (−3, 0, 0, 1)}, la matriz del en-domorfismo será la matriz canónica de Jordan:

J =

2 0 0 01 2 0 00 1 2 00 0 0 2

.

Ejercicio 10: Calcular las posibles formas canónicas de Jordan de la matriz

A =

10 4 135 3 7−9 −4 −12

.

Solución: Su polinomio característico es

pA(x) =

¯¯ 10− x 4 13

5 3− x 7−9 −4 −12− x

¯¯ =

¯¯ 1− x 0 1− x

5 3− x 7−9 −4 −12− x

¯¯ =

= (1− x)

¯¯ 1 0 05 3− x 2−9 −4 −3− x

¯¯ = (1− x)

¯3− x 2−4 −3− x

¯=

= −(1− x)2(x+ 1).

Los valores propios de A son 1 y -1.

dim Nuc (A−I) = 3−rango (A−I) = 3−rango 9 4 13

5 2 7−9 −4 −13

= 3−2 = 1

Page 340: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

328 CAPÍTULO 15. FORMA REDUCIDA DE JORDAN

dim Nuc (A−I)2 = 3−rango (A−I)2 = 3−rango −16 −8 −24−8 −4 −1216 8 24

= 3−1 = 2

Por tanto,

Nuc (A− I) ⊂ Nuc (A− I)2 = Nuc (A− I)r, r ≥ 2

Por consiguiente, el polinomio mínimo de A es

mA(x) = (x− 1)2(x+ 1).

Veamos qué forma tiene el recuadro expuesto en el procedimiento para obtenerla matriz de Jordan para el valor propio 1:El número de filas es el exponente del polinomio mínimo: 2El número de elementos en la fila inferior es p1 :

p1 = q1 − q0 = dim Nuc (A− I)− dim Nuc I = 1− 0 = 1

El número de elementos en la fila superior es p2 :

p2 = q2 − q1 = dim Nuc (A− I)2 − dim Nuc (A− I) = 2− 1 = 1

Tenemos la siguiente situación:

u1 es un vector cualquiera que pertenezca a Nuc (A−I)2 pero no a Nuc (A−I).Por ejemplo,

u1 = (1,−2, 0)Entonces,

(A− I)u1 = (1, 1,−1) ∈ Nuc (A− I)

u2 es un vector de Nuc (A+ I) ; por ejemplo

u2 = (−1,−12, 1)

La forma de Jordan de la matriz A depende del orden de los vectores de la base:

En la base B = {u1 = (1,−2, 0), (A− I)u1 = (1, 1,−1),u2 = (−1,−12 , 1)}, lamatriz del endomorfismo será:

J =

1 0 01 1 00 0 −1

.

Page 341: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

15.4. MATRIZ CANÓNICA DE UN ENDOMORFISMO 329

En la base B = {u2 = (−1,−12 , 1),u1 = (1,−2, 0), (A − I)u1 = (1, 1,−1)} lamatriz del endomorfismo será:

J =

−1 0 00 1 00 1 1

En la base B = {(A− I)u1 = (1, 1,−1),u1 = (1,−2, 0),u2 = (−1,−12 , 1)}, la

matriz del endomorfismo será:

J =

1 1 00 1 00 0 −1

En la base B = {u2 = (−1,−12 , 1), (A− I)u1 = (1, 1,−1),u1 = (1,−2, 0)}, la

matriz del endomorfismo será:

J =

−1 0 00 1 10 0 1

Page 342: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

330 CAPÍTULO 15. FORMA REDUCIDA DE JORDAN

Page 343: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Capítulo 16

Formas bilineales simétricasy formas cuadráticas

16.1. Definición y primeras propiedadesEjercicio 81 Consideremos las bases B1 = (u1,u2,u3) y B2 = (v1,v2,v3) deR3 tales que

u1 = 2v1 + v2

u2 = v1 − v3u3 = v1 + v3

y la forma bilineal f : R3 ×R3 → R cuya matriz en B1 es la matriz

A =

1 0 −21 1 00 1 0

Hallar la matriz de f en la base B2.Solución: Designamos por (x1, x2, x3) y (x01, x

02, x

03) las coordenadas de un

vector x de R3 en las bases B1 y B2, respectivamente. Entonces tenemos 2 1 11 0 00 −1 1

x1x2x3

=

x01x02x03

es decir, x1

x2x3

=

2 1 11 0 00 −1 1

−1 x01x02x03

=

0 1 012 −1 −1212 −1 1

2

x01x02x03

331

Page 344: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

332CAPÍTULO 16. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

En la base B1 se cumple,

f(x,y) =¡x1 x2 x3

¢ 1 0 −21 1 00 1 0

y1y2y3

por tanto, en la base B2 tendremos,

f(x0,y0) =¡x01 x02 x03

¢ 0 1 012 −1 −1212 −1 1

2

t 1 0 −21 1 00 1 0

0 1 012 −1 −1212 −1 1

2

y01y02y03

=

¡x01 x02 x03

¢ 12 −12 − 12−2 4 00 −12 0

y01y02y03

y, en consecuencia, la matriz de f en la base B2 es

A0 =

12 −12 − 12−2 4 00 −12 0

Ejercicio 82 Se considera la forma bilineal f : R3 ×R3 → R definida por

f(x,y) = x1y1 − x1y3 + x2y2 − x3y1 + x3y2 + 2x3y3 + x2y3

siendo x = (x1, x2, x3) y y = (y1, y2, y3). Se pide:

1. La matriz asociada a f .

2. Rango y núcleo de f .

3. En R3 se considera el siguiente cambio de coordenadas

x01 = 2x1 + 2x2 + 3x3x02 = −x1 − x3x03 = −x2 − x3

Hallar la expresión analítica de la forma cuadrática asociada a f en lanueva base.

Solución:

1. Se cumple

f(x,y) =¡x1 x2 x3

¢ 1 0 −10 1 1−1 1 2

y1y2y3

y la matriz de f en la base original es

A =

1 0 −10 1 1−1 1 2

Page 345: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

16.1. DEFINICIÓN Y PRIMERAS PROPIEDADES 333

2. Observamos que f es simétrica y, por tanto, el rango de f es el rango deA; puesto que detA = 0 y ¯

1 00 1

¯6= 0

el rango de f es dos y, en consecuencia, f es una forma degenerada. Elnúcleo se obtiene resolviendo el siguiente sistema, 1 0 −1

0 1 1−1 1 2

x1x2x3

=

000

cuyas soluciones son x1 = x3 = λ y x2 = −λ con λ ∈ R. Por tanto,

ker f = h(1,−1, 1)i

3. La ecuación del cambio de coordenadas es, 2 2 3−1 0 −10 −1 −1

x1x2x3

=

x01x02x03

luego, x1

x2x3

=

1 1 21 2 1−1 −2 −2

x01x02x03

Entonces,

f(x0,y0) =¡x01 x02 x03

¢ 1 1 21 2 1−1 −2 −2

t 1 0 −10 1 1−1 1 2

1 1 21 2 1−1 −2 −2

y01y02y03

=

¡x01 x02 x03

¢ 4 6 86 9 128 12 17

y01y02y03

Por tanto, si q es la forma cuadrática asociada a f , entonces tendremos,

q(x0) =¡x01 x02 x03

¢ 4 6 86 9 128 12 17

x01x02x03

= 4(x01)

2 + 9(x02)2 + 17(x03)

2 + 12x01x02 + 16x

01x03 + 24x

02x03

Page 346: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

334CAPÍTULO 16. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

16.2. Ortogonalidad respecto a una forma bilin-eal simétrica

Ejercicio 83 Sea S2(R) el espacio vectorial de las matrices simétricas de orden2 y

B =µµ

1 00 0

¶,

µ0 11 0

¶,

µ0 00 1

¶¶una base del mismo. Sea f una forma bilineal simétrica sobre S2(R), cuya matrizasociada en esta base es

A =

1 1 01 2 −10 −1 1

Se pide:

1. Rango de f y una base del núcleo de f

2. Hallar el subespacio ortogonal respecto a f con la matriz

B =

µ1 22 0

3. Hallar una base ortogonal de S2(R) respecto de f4. Clasificar la forma cuadrática asociada a f

Solución:

1. Como ¯¯ 1 1 01 2 −10 −1 1

¯¯ = 0

y ¯1 11 2

¯6= 0

el rango de f es dos y, por tanto, es degenerada. Calculemos su núcleo, 1 1 01 2 −10 −1 1

xyz

=

000

es decir, x+ y = 0

x+ 2y − z = 0−y + z = 0

Page 347: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

16.2. ORTOGONALIDADRESPECTOAUNA FORMABILINEAL SIMÉTRICA335

de donde se obtiene, x = −λ, y = z = λ con λ ∈ R. Por tanto, tenemosque el núcleo de f está constituido por las matrices de la forma

−λµ1 00 0

¶+ λ

µ0 11 0

¶+ λ

µ0 00 1

¶= λ

µ −1 11 1

¶y la matriz µ −1 1

1 1

¶es una base del núcleo de f .

2. Las coordenadas de la matriz B en la base B sonµ1 22 0

¶= 1

µ1 00 0

¶+ 2

µ0 11 0

¶+ 0

µ0 00 1

¶es decir, (1, 2, 0); luego el subespacio ortogonal vendrá dado por las matri-ces de coordenadas (x, y, z) tales que

¡1 2 0

¢ 1 1 01 2 −10 −1 1

xyz

= 0

es decir, ¡3 5 −2 ¢

xyz

= 3x+ 5y − 2z = 0

Por tanto,

hBi⊥ =½µ

x yy z

¶∈ S2(R) : 3x+ 5y − 2z = 0

¾

3. Tomamos como primer vector de la base ortogonal la matrizµ1 00 0

¶que tiene como coordenadas (1, 0, 0). Hallemos su subespacio ortogonal,

¡1 0 0

¢ 1 1 01 2 −10 −1 1

xyz

=¡1 1 0

¢ xyz

= x+ y = 0

Un vector de este subespacio es, por ejemplo, (0, 0, 1) que será el segundovector vector de la base. Buscamos ahora un tercer vector de coordenadas

Page 348: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

336CAPÍTULO 16. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

(x, y, z) ortogonal con los dos anteriores. Para que sea ortogonal a (0, 0, 1)tendrá que cumplir

¡0 0 1

¢ 1 1 01 2 −10 −1 1

xyz

=¡0 −1 1

¢ xyz

= −y + z = 0

Por tanto, este tercer vector debe satisfacer½x+ y = 0−y + z = 0

Por ejemplo, podemos tomar (−1, 1, 1). Por lo tanto, una base ortogonalrespecto a f es

B0 =µµ

1 00 0

¶,

µ1 11 0

¶,

µ −1 11 1

¶¶4. La matriz de la forma cuadrática q asociada a f coincide con A en la

base B. Para clasificarla debemos expresarla en una base ortonormal. Sitomamos como base ortonormal la que acabamos de calcular, entonces lamatriz de cambio de base es

P =

1 0 −10 0 10 1 1

y, por tanto, la nueva matriz de q en la base B0 será 1 0 −1

0 0 10 1 1

t 1 1 01 2 −10 −1 1

1 0 −10 0 10 1 1

=

1 0 00 1 00 0 0

y su expresión en esta base es

q(x0, y0, z0) = (x0)2 + (y0)2

y, en consecuencia, es una forma cuadrática positiva, ya que sólo contienetérminos positivos por qué?

Ejercicio 84 Sea E un espacio vectorial de dimensión cuatro sobre el cuerpo delos números reales y B = (e1, e2, e3, e4) una base, respecto de la cual las coorde-nadas de un vector genérico x se representan por (x1, x2, x3, x4). Consideremosla forma cuadrática definida sobre E por

q(x) = x21 + 3x22 − x23 + 4x1x2 + 2x1x3 + 2x1x4 + 2x2x4 − 2x3x4

Se pide:

Page 349: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

16.2. ORTOGONALIDADRESPECTOAUNA FORMABILINEAL SIMÉTRICA337

1. Clasificar la forma cuadrática.

2. Calcular una base del núcleo de la polar de q.

3. Sea F el subespacio vectorial de E definido por las siguientes ecuaciones½x1 − x3 + 2x4 = 0x2 − x3 − x4 = 0

en la base B. Hallar la matriz de q sobre F, indicando la base utilizada enF.

4. Determinar un subespacio vectorial de E de dimensión máxima tal que larestricción de q a él sea una forma cuadrática definida positiva. Dar ladimensión y una base de dicho subespacio.

Solución:

1. La matriz asociada a q en la base B es

A =

1 2 1 12 2 0 11 0 −1 −11 1 −1 0

Observemos que q(e1) = 1 > 0 y q(e3) = −1 < 0; luego q es indefinida.Además, q es degenerada ya que detA = 0.

2. La polar de q es la forma bilineal simétrica f cuya matriz en la base B esA. Por tanto, el núcleo de f se calculará por

1 2 1 12 2 0 11 0 −1 −11 1 −1 0

x1x2x3x4

= 0

Como el rango de A es tres, la dimensión del núcleo es uno y, por tanto,podemos tomar como base el vector (1,−1, 0, 1).

3. Calculemos una base de F; para ello, resolvamos el siguiente sistema½x1 − x3 + 2x4 = 0x2 − x3 − x4 = 0

cuyas soluciones son (α−2β, α+β, α, β) = α(1, 1, 1, 0)+β(−2, 1, 0, 1) conα, β ∈ R. Por tanto, una base de F es u1 = (1, 1, 1, 0) y u2 = (−2, 1, 0, 1)).Calculemos ahora la matriz de la restricción de f a F en la base con-siderada; para ello, debemos determinar f(u1,u1) = q(u1), f(u1,u2) y

Page 350: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

338CAPÍTULO 16. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

f(u2,u2) = q(u2),

q(u1) =¡1 1 1 0

¢1 2 1 12 2 0 11 0 −1 −11 1 −1 0

1100

= 9

f(u1,u2) =¡1 1 1 0

¢1 2 1 12 2 0 11 0 −1 −11 1 −1 0

−2101

= −2

q(u2) =¡ −2 1 0 1

¢1 2 1 12 2 0 11 0 −1 −11 1 −1 0

−2101

= −3

Luego, la matriz de la restricción g de f a F esµ9 −2−2 −3

¶y si representamos por (y1, y2) las coordenadas de un vector de F conrepecto a la base considerada, la expresión de la restricción de q a F es

q(y1, y2) = 9y21 − 3y2 − 4y1y2

4. En primer lugar debemos calcular el valor de s, es decir, el número detérminos positivos que contiene la forma cuadrática al expresarla en unabase ortonormal respecto a f . Para ello, debemos calcular una base or-togonal de E respecto a f . Tomemos como primer vector (1, 0, 0, 0); lascoordenadas del segundo (x1, x2, x3, x4) deben cumplir,

¡1 0 0 0

¢1 2 1 12 2 0 11 0 −1 −11 1 −1 0

x1x2x3x4

= x1 + 2x2 + x3 + x4 = 0

y, tomamos, por ejemplo, (1, 0,−1, 0); el tercer vector debe satisfacer,además de esta última ecuación, la siguiente,

¡1 0 −1 0

¢1 2 1 12 2 0 11 0 −1 −11 1 −1 0

x1x2x3x4

= 2x2 + 2x3 + 2x4 = 0

y, tomamos, (0, 0,−1, 1); por último, el cuarto deberá satisfacer las dosanteriores y la siguiente

¡0 0 −1 1

¢1 2 1 12 2 0 11 0 −1 −11 1 −1 0

x1x2x3x4

= x2 + x4 = 0

Page 351: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

16.3. FORMAS BILINEALES SIMÉTRICAS REALES 339

y, tomamos, (1,−1, 0, 1). Por tanto, B0 = ((1, 0, 0, 0), (1, 0,−1, 0), (0, 0,−1, 1), (1,−1, 0, 1))es una base ortonormal de E respecto a f . La matriz de q respecto a estaúltima base se calculará como sigue,1 1 0 10 0 0 −10 −1 −1 00 0 1 1

t

1 2 1 12 2 0 11 0 −1 −11 1 −1 0

1 1 0 10 0 0 −10 −1 −1 00 0 1 1

=

1 0 0 00 −2 0 00 0 1 00 0 0 −1

y a la vista de los elementos de la diagonal tenemos que s = 2. Por tanto,la dimensión máxima de un subespacio de E para el que la restricción de laforma cuadrática es definida positiva es dos. Si llamamos v1 = (1, 0, 0, 0)y v3 = (0, 0,−1, 1), es evidente que el subespacio vectorial G = hv1,v3icumple la condición exigida y una base es v1 y v3.

16.3. Formas bilineales simétricas reales

Ejercicio 85 Consideremos en R3 las formas cuadráticas q1 y q2 con matrices

M1 =

2 1 01 1 −10 −1 3

y M2 =

1 0 −10 3 1−1 1 2

en la base canónica, respectivamente. Averiguar si q1 y q2 son equivalentes enR3.Solución: En un espacio euclideo dos formas cuadráticas q1 y q2 son equiv-

alentes si existe una base ortonormal respecto a la cual las matrices de las dosformas cuadráticas coinciden. Ahora bien, como las formas cuadráticas realesadmiten siempre una representación matricial diagonal en una base ortonor-mal, el polinomio característico es un invariante completo para la clasificacióneuclidea de las formas cuadráticas. Calculando los polinomios característicos deambas matrices tenemos,

det(M1 − λI3) = −λ3 + 6λ2 − 9λ+ 1det(M2 − λI3) = −λ3 + 6λ2 − 9λ+ 2

A la vista de los resultados es evidente que las dos formas no son equivalentes.Sin embargo, obsérvese que, para ambas formas cuadráticas, la sucesión de sig-nos del polinomio característico coincide,

− + −+

Por tanto, las signaturas de ambas formas coinciden y su valor es (3, 0).

Page 352: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

340CAPÍTULO 16. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Ejercicio 86 Consideremos la forma cuadrática q de R3 definida por

q(x) = −2x2 + y2 + 3z2 + 4xy + 4yz

y el subespacio vectorial F engendrado por los vectores de coordenadas u1 =(2, 0, 1) y u2 = (1, 1, 1). Estudiar si la restricción de q a F es definida positivao negativa, o indefinida.Solución: La matriz de q y de la forma bilineal simétrica asociada f en la

base canónica es, −2 2 02 1 20 2 3

Encontremos la matriz de la restricción al subespacio F, para ello debemos cal-cular q(u1), f(u1,u2) y q(u2),

q(u1) =¡2 0 1

¢ −2 2 02 1 20 2 3

201

= −5

f(u1,u2) =¡2 0 1

¢ −2 2 02 1 20 2 3

111

= 5

q(u2) =¡1 1 1

¢ −2 2 02 1 20 2 3

111

= 10

Por tanto, la matriz de la restricción a F es,µ −5 55 10

¶que es una forma cuadrática indefinida, ya que a la vista de su polinomio car-acterístico −75− 5x+ x2 tiene signatura (1, 1) por qué?

Ejercicio 87 Consideremos la forma cuadrática q de R3 definida por

q(x) = 2x2 − 2xy + y2 + 2xz

Para cada t ∈ [0, 1], consideramos el subespacio vectorial Ft = h(1, 1, 0), (t, 1,−t)iy qt : Ft → R, la restricción de q sobre Ft. Considerando en R3 el productoescalar ordinario,

1. Dar la matriz de qt en una base de Ft.

2. Clasificar qt según los valores de t ∈ [0, 1].3. Si ft es el endomorfismo simétrico asociado a qt, sea E un espacio euclideo

y f un endomorfismo simétrico E, se llama forma cuadrática asociadaa f la forma cuadrática qf sobre E que satisface qt(x) = x ·f(x) para todox ∈ E, hallar la matriz de ft en una base de Ft.

Page 353: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

16.3. FORMAS BILINEALES SIMÉTRICAS REALES 341

Solución:

1. La matriz de q y de la forma bilineal simétrica f asociada a q en la basecanónica es, 2 −1 1

−1 1 01 0 0

Designemos por u1 = (1, 1, 0) y u2 = (t, 1,−t); para hallar la matriz de larestricción qt en la base u1,u2 debemos calcular q(u1), q(u2) y f(u1,u2),

q(u1) =¡1 1 0

¢ 2 −1 1−1 1 01 0 0

110

= 1

f(u1,u2) =¡1 1 0

¢ 2 −1 1−1 1 01 0 0

t1−t

= 0

q(u2) =¡t 1 −t ¢

2 −1 1−1 1 01 0 0

t1−t

= −2t+ 1

Por tanto, la matriz de qt en la base u1,u2 de Ft es

AFt =

µ1 00 1− 2t

¶2. A la vista de la matriz hallada en el apartado anterior, es claro que qt es

definida positiva si y sólo si 1 − 2t > 0, es decir, t < 1/2. Si t = 1/2,entonces qt es positiva y degenarada, y, si t > 1/2, qt es indefinida.

3. Calculemos la matriz del producto escalar ordinario de R3 restringido aFt,

¡1 1 0

¢ 110

= 2

¡1 1 0

¢ t1−t

= t+ 1

¡t 1 −t ¢

t1−t

= 1 + 2t2

Por tanto, la matriz del producto escalar sobre Ft es

GFt =

µ2 t+ 1

t+ 1 1 + 2t2

Page 354: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

342CAPÍTULO 16. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

y, en consecuencia, si MFt es la matriz del endomorfismo simétrico aso-ciado a qt tenemos

AFt = GFt MFt

es decir,

MFt = G−1Ft AFt

=

µ2 t+ 1

t+ 1 1 + 2t2

¶−1µ1 00 1− 2t

¶=

1

1− 2t+ 3t2µ1 + 2t2 −1 + t+ 2t2

−1− t 2− 4t¶

16.4. ProcedimientosEjercicio 88 Dada la familia de formas cuadráticas en R3

qλ(x) = x2 + y2 + (λ+ 1)z2 + 2λyz + 2zx

1. Clasificar las formas cuadráticas según los distintos valores reales del parámetroλ.

2. Para λ = 2, obtener el ortogonal del subespacio vectorial F definido porlas ecuaciones siguientes ½

x− y = 0y = 0

3. Diagonalizar la forma para λ = 3 por el método de Gauss.

4. Para λ = 4 diagonalizar la forma encontrando una base de vectores ortog-onales

Solución:

1. La matriz asociada a qλ en la base canónica es

Aλ =

1 0 10 1 λ1 λ λ+ 1

Calculemos los menores principales,

M1 = 1 > 0

M2 =

¯1 00 1

¯= 1 > 0

M3 =

¯¯ 1 0 10 1 λ1 λ λ+ 1

¯¯ = λ(1− λ)

Entonces tenemos:

Page 355: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

16.4. PROCEDIMIENTOS 343

a) Si λ < 0, como M3 < 0, qλ es indefinida y no degenerada

b) Si 0 < λ < 1, como M3 > 0, qλ es definida positiva

c) Si λ = 0 o λ = 1, como M3 = 0, qλ es positiva y degenerada

d) Si λ > 1, como M3 < 0, qλ es indefinida y no degenerada

2. Observemos que F = h(0, 0, 1)i y, por tanto, el subespacio ortogonal vendrádefinido por,

¡x y z

¢ 1 0 10 1 21 2 3

xyz

= 0

x+ 2y + 3z = 0

Por tanto,F⊥ = {(x, y, z) ∈ R3 : x+ 2y + 3z = 0}

3. Para λ = 3, tenemos

q3(x) = x2 + y2 + 4z2 + 6yz + 2zx

= (x+ z)2 + y2 + 3z2 + 6yz

= (x+ z)2 + (y + 3z)2 − 6z2

Mediante el siguiente cambio de coordenadas, x0 = x+ zy0 = y + 3zz0 = z

se obtiene la siguiente forma reducida,

q(x0) = (x0)2 + (y0)2 − 6(z0)2

4. Para λ = 4, tenemos

q4(x) = x2 + y2 + 5z2 + 8yz + 2zx

Vamos a construir una base ortogonal respecto a q4. Tomamos como primervector de esta base el vector (1, 0, 0). El subespacio ortogonal con (1, 0, 0)vendrá dado por

¡1 0 0

¢ 1 0 10 1 41 4 5

xyz

= 0

x+ z = 0

Page 356: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

344CAPÍTULO 16. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Un vector de este subespacio, por ejemplo, (0, 1, 0) será el segundo vectorde la base. Por último, buscamos un vector de coordenadas (x, y, z) quesea ortogonal a los dos anteriores. El subespacio ortogonal con (0, 1, 0) es

¡0 1 0

¢ 1 0 10 1 41 4 5

xyz

= 0

y + 4z = 0

Por tanto, (x, y, z) tiene que ser solución del siguiente sistema,½x+ z = 0y + 4z = 0

Por ejemplo, (−1,−4, 1) puede ser el tercer vector de la base. Por lo tanto,la base ortogonal respecto a q4 es,

B = ((1, 0, 0), (0, 1, 0), (−1,−4, 1))La forma reducida correspondiente se hallará calculando primero

q4(1, 0, 0) = 1

q4(0, 1, 0) = 1

q4(−1,−4, 1) = −12Por tanto,

q4(x0) = (x0)2 + (y0)2 − 12(z0)2

Ejercicio 89 Consideremos en R3 la familia de formas cuadráticas qλ cuyamatriz respecto a la base canónica es

Aλ =

1 0 λ0 1 1λ 1 0

Calcular las signaturas de las formas cuadráticas según los valores reales delparámetro λ.Solución: Calculamos el determinante de Aλ,¯

¯ 1 0 λ0 1 1λ 1 0

¯¯ = −1− λ2

Como λ ∈ R, −1 − λ2 6= 0 para todo valor de λ. Así, las formas cuadráticasno son degeneradas para todo valor de λ ∈ R. Calculamos ahora el polinomiocaracterístico,

det(Aλ − tI3) = −t3 + 2t2 + λ2t− (1 + λ2)

Page 357: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

16.4. PROCEDIMIENTOS 345

y como λ2 ≥ 0 y 1 + λ2 > 0 para todo λ ∈ R, obtenemos la siguiente sucesiónde signos entre los coeficientes,

− + +−

con dos cambios de signo. Como además qλ es no degenerada, la signatura es(2, 1) para todo valor λ ∈ R.

Page 358: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

346CAPÍTULO 16. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

Page 359: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Parte III

Apéndices

347

Page 360: Álgebra Lineal. Teoría y Práctica (Aprendes.com)
Page 361: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Apéndice A

Espacios vectoriales

1. Demostrar que el conjunto C de los números complejos, con las operaciones

(a+ bi) + (c+ di) = (a+ c) + (b+ d)i

λ(a+ bi) = λa+ λbi

tiene estructura de espacio vectorial real.

2. Considerese el conjunto de las funciones definidas sobre el intervalo [0, 1]y tales que 2f(0) = f(1). ¿Forman un espacio vectorial real?

3. Considerese el conjunto de los polinomios de grado inferior o igual a 4,sobre un cuerpo K (comprendido el polinomio nulo). ¿Forman un espaciovectorial sobre K?

4. Consideremos el espacio vectorial real F(R,R) de las funciones reales devariable real. Determinar cuáles de los siguientes subconjuntos son sube-spacios vectoriales: (a) S1 = {f ∈ F(R,R) : f(−x) = f(x),∀x ∈ R};(b) S2 = {f ∈ F(R,R) : f(−x) = −f(x),∀x ∈ R}; (c) S3 = {f ∈F(R,R) : f es continua}; (d) S4 = {f ∈ F(R,R) : f(x) ≥ 0,∀x ∈ R};(e) S5 = {f ∈ F(R,R) : f es dos veces derivable y f 00 − f 0 + f = 0}; (f)S6 = {f ∈ F(R,R) : f(1) = f(2) + 3}.

5. Consideremos el espacio vectorial realMn×m(R) de las matrices de ordenn×m con coeficientes reales. Determinar cuáles de los siguientes subcon-juntos son subespacios vectoriales: (a) S1 = {A ∈Mn×m(R) : a11 = 0};(b) S2 = {A ∈ Mn×m(R) :

Pni=1 aii = 0, n = m}; (c) S3 = {A ∈

Mn×m(R) : aij = aji,∀i, j, n = m}.

6. Considérese las inclusiones Q ⊂ Q( 3√5) ⊂ R ⊂ C, siendo Q( 3

√5) = {a +

b 3√5 : a, b ∈ Q}. Demostrar que cada uno de estos cuerpos es un espacio

vectorial sobre el anterior.

349

Page 362: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

350 APÉNDICE A. ESPACIOS VECTORIALES

7. Escribir el vector w = (2, 2, 3) como una combinación lineal de los vec-tores del sistema S = (v1,v2,v3) de R3, siendo v1 = (2, 1, 4),v2 =(1,−1, 3),v3 = (3, 2, 5).

8. Escribir el polinomio p(x) = 2+2x+3x2 como una combinación lineal delos polinomios p1(x) = 2+x+4x2, p2(x) = 1−x+3x2, p3(x) = 3+2x+5x2de R2 [x].

9. Averiguar si la matriz

A =

µ −1 75 1

¶es o no una combinación lineal de las matrices

M1 =

µ1 2−1 3

¶,M2 =

µ0 12 4

¶,M3 =

µ4 −20 −2

¶deM2(R).

10. (a) Exprese (4a, a − b, a + 2b) como una combinación lineal de (4, 1, 1) y(0,−1, 2). (b) Exprese (3a + b + 3c,−a + 4b − c, 2a + b + 2c) como unacombinación lineal de (3,−1, 2) y (1, 4, 1). (c) Exprese (2a− b + 4c, 3a −c, 4b+ c) como una combinación lineal de tres vectores diferentes de cero.

11. Exprese v = (1, 1) como una combinación lineal de v1 = (1,−1),v2 =(3, 0),v3 = (2, 1), de dos maneras distintas.

12. Expresar (si es posible) los siguientes elementos de F(R,R) como unacombinación lineal de las familias correspondientes: (a) sinx y (1, x, x2, ...);(b) x2 + x − 1 y (1, x − 1, (x − 1)2); (c) 1 y (x + 1, x2 − 1, x3 + 1); 0 y((x− 1)2, x, x2 + 2,√3).

13. En el espacio vectorial R4 se considera el subespacio engendrado porlos vectores (2, 3, 1,−5) y (0, 2,−1, 3). Hallar a y b para que el vector(2, a, 3,−b) pertenezca a dicho subespacio.

14. Hallar un sistema generador S del espacio vectorial de las soluciones delos siguientes sistemas lineales homogéneos:

(a)x+ 4y + 8z = 02x+ 5y + 6z = 03x+ y − 4z = 0

(b)2x− 3y + z = 06x− 9y + 3z = 0−4x+ 6y − 2z = 0

15. De los sistemas siguientes, determinar cuáles engendran R3. En caso neg-

ativo, dar una descripción geométrica del subespacio que engendran. (a)S1 = ((4, 7, 3), (−1, 2, 6), (2,−3, 5)); (b) S2 = ((−2, 5, 0), (4, 6, 3)); S3 =((1, 0, 3), (2, 0,−1), (4, 0, 5), (2, 0, 6)).

Page 363: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

351

16. Hallar un sistema de ecuaciones lineales homogéneas cuyo espacio de solu-ciones es cada uno de los siguientes subespacios vectoriales:

S1 = h(1,−2, 0, 3), (1,−1,−1, 4), (1, 0,−2, 5)iS2 = h(1, 2, 0, 1)iS3 =

­8 + 3x, 2x+ 3x2

®(considerado como subespacio de R2 [x] )

S4 =

¿µ0 13 1

¶,

µ0 11 3

¶,

µ3 11 0

¶À17. Se consideran los subespacios S y T de R4 definidos como sigue:

S = {(x, y, z, t) ∈ R4 : x = y = z}T = {(α+ β + γ + 3δ, α+ β + 2δ, α+ δ, α+ γ) : α, β, γ, δ ∈ R}

(a) ¿Está T ⊂ S? (b) Calcular S ∩ T.18. Hallar S ∩ T y S+ T, siendo

S = h(1, 0, 1), (1, 1, 0)iT = h(1, 2, 3), (0, 0, 1)i

Averiguar si la suma es o no directa. Averiguar también si S y T son o nosubespacios suplementarios respecto R3.

19. Demostrar que los sistemas S1 = ((1, 2,−1), (2,−1, 0)) y S2 = ((−4, 7,−2), (−1,−7, 3))de R3 son equivalentes.

20. En el espacio vectorial R4 se consideran los vectores (1, 2, 0, a), (3, 2, b,−1), (2, 7, a,−3).Determinar a y b para que estos vectores sean linealmente dependientes.

21. En R4 estudiar la independencia lineal de los vectores

(1, 7,−1, 0), (2, 13, 0, 1), (3, 17, 4, 2), (0, 5,−2, 1)

22. Probar que si u1, u2, u3 son vectores linealmente independientes de unespacio vectorial E, también lo son u1 + u2, u2 + u3, u1 + u3.

23. Calcular el espacio vectorial cociente del espacio vectorial R4 módulo elsubespacio F, siendo: (a) F = {(x, y, z, t) : x+ y = z − t = 0}; (b) F =h(1, 1, 1, 1), (1, 2, 3, 4), (1, 3, 5, 6)i; (c) F = {(x, y, z, t) : x + y = x − y =z + t = x− t = 0}.

24. Sean

M = {µ

a b0 c

¶: a, b, c ∈ R}

M 0 = {µ

a− b 2ab a+ 2b

¶: a, b ∈ R}

Hallar una base deM2×2(R)/M yM2×2(R)/M 0.

Page 364: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

352 APÉNDICE A. ESPACIOS VECTORIALES

25. Determinar los rangos de los sistemas R4 y eventualmente las relaciones en-tre los vectores de Si (i = 1, 2). (a) S1 : v1 = (1, 0, 1, 0),v2 = (2, 1, 0, 1),v3 =(0, 2,−1, 1),v4 = (3,−1, 2, 0); (b) S2 : v1 = (1, 0, 2, 3),v2 = (7, 4,−2,−1),v3 =(5, 2, 4, 7),v4 = (3, 2, 0, 1).

26. Determinar, según los valores de α (o de α, β, γ) los rangos de los sistemasS1,S2,S3 de vectores de R3. (a) S1 : v1 = (α, 1, 1),v2 = (1, α, 1),v3 =(1, 1, α); (b) S2 : v1 = (α, 1, 1),v2 = (−1,−α,−1),v3 = (−1,−1, α);S3 : v1 = (0, γ,−β),v2 = (−γ, 0, α),v3 = (β,−α, 0).

27. Determinar una base del subespacio F de R4 descrito por (x, y, z, t) delque se sabe que x = y − 3z y z = t. Completar la base obtenida paraobtener una base de R4.

28. En R3 verificar que los vectores a,b, c son independientes y calcular lascoordenadas de x respecto de la base (a,b, c). Los vectores son a =(−1, 1, 1),b = (1,−1, 1), c = (1, 1,−1) y x = (2,−3,−1).

29. Determinar el rango del sistema de vectores vi (i = 1, ..., n) de Rn quetienen coordenadas αij = 1+(α−1)δij , en donde α es un escalar conocidoy δij es el símbolo de Kronecker.

30. Sean F,G,H subespacios del espacio vectorial E. Demostrar o dar con-traejemplos de las afirmaciones siguientes:

a) F ∩ (G+H) = (F ∩G) + (F ∩H)b) F + (G ∩H) = (F +G) ∩ (F +H)

c) dim(F ∩ (G+H)) = dim(F ∩G) + dim(F ∩H) + dim(F ∩G ∩H)31. Consideremos el espacio vectorial R3 [t] de los polinomios con coeficientes

reales de grado a lo sumo tres. Sean F y G los subespacios

F = {p(t) ∈ R3 [t] : p(0) = p(1) = p0(1/2) = p000(0) = 0}G = ht+ 1, t, t− 1ia) Calcular sus dimensiones y hallar una base de cada uno de ellos

b) Consideremos los polinomios t2 − 5t+ 2 y 3t− 4. Se pide: (i) ¿Son deG? (ii) En caso afirmativo, hallar α, β, γ ∈ R tales que

p(t) = α(t+ 1) + βt+ γ(t− 1)

siendo p(t) cada uno de los dos polinomios anteriores. (iii) ¿Son estosα, β, γ únicos? En caso afirmativo, justificar la respuesta. En caso con-trario, hallarlos.

c) Calcular las dimensiones y hallar una base de F + G y F ∩ G. ¿Es lasuma F +G directa?

d) Hallar una base de un complementario de F +G en R3 [t].

Page 365: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

353

32. Consideremos en C3 el sistema S = ((2− i, 1, 1), (1, 2 + i, 3), (1, 2 + 3i, 2)).Averiguar: (a) Si S es un sistema generador de un subespacio de C3 dedimensión 1; (b) Si S es un sistema generador de un subespacio de C3 dedimensión 2; (c) ¿Es una base de C3? (d) ¿Es un sistema libre?

Page 366: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

354 APÉNDICE A. ESPACIOS VECTORIALES

Page 367: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Apéndice B

Aplicaciones lineales

1. ¿Es lineal la aplicación f : R2 → R3 definida por f(x, y) = (2x + y, x −y, 3y)?Solución: Sí.

2. Sea la aplicación f : R3 →M2(R) dada por

f(x1, x2, x3) =

µx1 − x2 x2 − x3x3 − x1 x1 − x2

¶.

Demostrar que es lineal.

3. Sea la aplicación lineal f : R4 → R3 dada por f(x, y, z, t) = (x+y, x−t, 3z).Calcular el valor de λ para que el vector v = (2λ−2, λ−4, 0, 2) pertenezcaa Nuc f .Solución: λ = 2.

4. Consideremos las aplicaciones f :M2(R)→ R2[x] definida por

f

µa bc d

¶= a+ (b+ c)x2

y g : R2 [x]→ R2[x] definida por

g(P (x)) = P (x) (derivada de P (x))

a) ¿Es f inyectiva? ¿Es g inyectiva?

b) Calcular las matrices asociadas a f y g en las bases canónicas deM2(R) y R2 [x]:

Base deM2(R) :

½µ1 00 0

¶,

µ0 10 0

¶,

µ0 01 0

¶,

µ0 00 1

¶¾,

Base de R2[x] : {1, x, x2}

355

Page 368: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

356 APÉNDICE B. APLICACIONES LINEALES

c) Calcular una base y la dimensión de Imf y Nuc g

d) Calcular la matriz de g ◦f en las bases canónicas deM2(R) y R2 [x].

e) Calcular la matriz de g◦f en las bases V yW, siendo V =½µ

1 00 0

¶,

µ1 10 0

¶,

µ1 11 0

y W = {1 + x+ x2, 1 + 2x+ x2, x2}Solución: f y g no son inyectivas; la matriz asociada a f es 1 0 0 0

0 0 0 00 1 1 0

La matriz asociada a g es 0 1 0

0 0 20 0 0

Base de Imf : {1, x2}. DimImf = 2. Base deNuc g : {1}. DimNuc g =1; 0 0 0 0

0 2 2 00 0 0 0

y

0 −2 −4 −40 2 4 40 0 0 0

5. Sean f y g dos endomorfismos de un espacio vectorial, tales que f◦g = g◦f .

Demostrar:

a) f(ker g) ⊂ ker gb) f(Im g) ⊂ Im g

Indicación: Usar las definiciones de Nuc e Im.

6. Sean E y F espacios vectoriales sobre K y f una aplicación lineal de E enF. Demostrar que la aplicación ϕ : E× F→ E× F definida por ϕ(u,v) =(u,v − f(u)) es un automorfismo de E× F.Indicación: Hay que demostrar que ϕ es lineal, inyectiva y exhaustiva.Para demostrar que ϕ es exhaustiva, recuerda el Teorema 3.

7. Sea E un espacio vectorial sobre K. Si f es un endomorfismo idempotente(f2 = f), demostrar que E = Nuc f ⊕ Imf .

Indicación: Hay que demostrar queNuc f∩Imf = {0}, y que E = Nuc f+Imf. Observa que x = x− f(x) + f(x).

8. Sea E un espacio vectorial sobre un cuerpo K de característica 6= 2, y f unendomorfismo de E, tal que f2 = IE. Sean F = {x ∈ E : f(x) = x},G ={x ∈ E : f(x) = −x}. Demostrar:a) F y G son subespacios de E.

Page 369: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

357

b) E = F⊕G.

Indicación: Para probar que E = F⊕G hay que demostrar que F∩G = {0}y que E = F+G. Observa que x = 1

2(x+ f(x)) + 12(x− f(x)).

9. Se definen las aplicaciones lineales f y g de la siguiente manera

f : R3 → R4 con f(x1, x2, x3) = (x1 − x2, x1 − x3, 0, x1)

g : R4 → R2 con g(y1, y2, y3, y4) = (y1 + y4, y1 − y2)

Calcular:

a) La matriz asociada a f en las bases canónicas de R3 y R4.b) La matriz asociada a g en las bases canónicas de R4 y R2.c) La matriz asociada a g ◦ f en las bases canónicas de R3 y R2.d) ker (g ◦ f)

Solución:1 −1 01 0 −10 0 01 0 0

, µ 1 0 0 11 −1 0 0

¶yµ2 −1 00 −1 1

y ker (g ◦ f) = h(1, 2, 2)i.

10. Se considera el subconjuntoM de matrices cuadradas 2× 2 definido de laforma siguiente:

M =

½µa bc 0

¶: a, b, c ∈ R

¾y la aplicación f :M→M definida por

f

µa bc 0

¶=

µa− b b− ac 0

¶.

Demostrar que f es lineal, y calcular la matriz asociada a f en la base½e1 =

µ1 00 0

¶, e2 =

µ0 10 0

¶, e3 =

µ0 01 0

¶¾deM.

La matriz asociada a f es 1 −1 0−1 1 00 0 1

Page 370: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

358 APÉNDICE B. APLICACIONES LINEALES

11. Sea la aplicación lineal f : R3 → R2 dada por f(x, y, z) = (x − 2y, y +z). Calcular su matriz en las bases {(1, 0, 0), (0, 1, 0), (0, 0, 1)} de R3 y{(1, 0), (1, 1)} de R2.Solución: µ

1 −3 −10 1 1

¶12. Sea f la aplicación entre los espacios M2(R) y R2[x] definida por

f

µa bc d

¶= ax2 + (b− c)x+ d

a) ¿Es f lineal?

b) Calcular la matriz de f en las bases canónicas de M2(R) y R2[x]:

Base de M2(R) :

½µ1 00 0

¶,

µ0 10 0

¶,

µ0 01 0

¶,

µ0 00 1

¶¾,

Base de R2[x] : {x2, x, 1}c) Calcular Nuc f y Imf.

d) ¿Es f inyectiva? ¿Es f exhaustiva? ¿Es f biyectiva?Solución: Sí; 1 0 0 0

0 1 −1 00 0 0 1

ker f =

¿µ0 11 0

¶À, Im f = R2[x]; f es exhaustiva, pero no es

inyectiva ni biyectiva.

13. Sea A =

µ1 −10 −1

¶la matriz de un endomorfismo f de R2 en la base

canónica. Sean u1 = (0, 1),u2 = (1,−1) una base de R2. Calcular la ma-triz de f en esta nueva base.

Solución: µ0 1−1 2

¶14. Dada la aplicación f : R2 → R3 definida por

f(1, 0) = (2, 1, 0)

f(2, 1) = (4, 0, 2)

calcular su matriz en las bases canónicas de R2 y R3.Solución: 2 0

1 −20 2

Page 371: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

359

15. Sea f : E→ E una aplicación lineal, y {e1, e2, e3} una base de E. Se definef por

f(e1 − e2) = 0

f(e1 + e2 + e3) = 4e2 + 5e3

f(e2 + e3) = 3e2 + 3e3

Hallar la imagen de v = 3e1 + 4e2 + 6e3.

16. Consideremos la aplicación lineal f : R3[x]→M2(R) definida por

f(ax3 + bx2 + cx+ d) =

µa b− d

c− b 0

¶.

a) Calcular su matriz en las bases canónicas de R3[x] y M2(R):

Base de R3[x] : {x3, x2, x, 1},Base de M2(R) :

½µ1 00 0

¶,

µ0 10 0

¶,

µ0 01 0

¶,

µ0 00 1

¶¾b) Calcular una base de Nuc f.

Solución: 1 0 0 00 1 0 −10 −1 1 00 0 0 0

y Nuc f = h(0, 1, 1, 1)i.

17. Dado un endomorfismo f de un espacio vectorial E de dimensión finita n,demostrar que los conjuntos

F = {g ∈ L(E,E) : f ◦ g = 0} y G = {g ∈ L(E,E) : g ◦ f = 0}

son subespacios vectoriales de L(E,E).

18. Sea f ∈ L(E,E). Demostrar que Nuc f = Imf si, y sólo si, dimE es par,f2 = 0 y el rango de f es dimE

2 .

Page 372: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

360 APÉNDICE B. APLICACIONES LINEALES

Page 373: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Apéndice C

Matrices

1. Escribir la matriz real A de orden 2× 3 tal que aij = (−1)i+j .2. ¿Para qué valores de u y v son iguales las dos matrices siguientes? (1− u)2 v2 3

v 2u 56 u −1

y

4 4 uv −3v u− v6 v + 5 −1

3. Calcular A+B,A−B, y 5A− 3B, sabiendo que

A =

µ0 1 −12 3 7

¶y B =

µ1 −1 50 1 9

¶4. Determinar dos matrices X,Y tales que

2X − 5Y =µ1 −12 1

¶−X + 2Y =

µ2 14 1

5. Estudiar la dependencia lineal de las tres matrices siguientesµ1 −12 3

¶,

µ0 11 1

¶,

µ2 −3−1 4

¶6. EnM3(R) consideramos el subconjunto S de las ”matrices mágicas”. Una

matriz A se llama mágica si las ocho sumas siguientes son iguales.

3Xi=1

aij (j = 1, 2, 3),3X

j=1

aij (i = 1, 2, 3),3Xi=1

aii, a13 + a22 + a31

Demostrar que S es un subespacio deM3(R), dando su dimensión y unabase.

361

Page 374: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

362 APÉNDICE C. MATRICES

7. Una aplicación lineal aplica (2, 3) en (1, 0) y (3, 2) en (1,−1). Hallar lamatriz que representa a esta aplicación lineal.

8. Dado el espacio vectorial Mn(R) de las matrices cuadradas de orden ncon coeficientes reales.

a) Demostrar que el conjunto S de las matrices simétricas y el conjuntoT de las matrices antisimétricas son subespacios deMn(R)

b) Demostrar queMn(R) = S⊕ Tc) Calcular la dimensión y una base de S y T

Descomponer la matriz 1 −2 16 1 42 3 5

en suma de una matriz simétrica y otra antisimétrica

9. Si A es una matriz idempotente, es decir, verifica que A2 = A, probar quees idempotente la matriz B = I −A y que AB = BA = O.

10. Dadas las matrices

A =

1 1n

1n

0 1 00 0 1

y B =

µcosα − sinαsinα cosα

Calcular An y Bn.

11. Sea B1 = (u1,u2,u3), con u1 = (1, 2, 1), u2 = (0, 3, 1) y u3 = (2, 0, 3), unabase de R3. Hallar la matriz respecto a la base canónica de la aplicaciónlineal que hace corresponder a cada vector su primera coordenada en labase B1.

12. Sea E un espacio vectorial real de dimensión 3 y B1 = (e1, e2, e3) una basedel mismo. Sea f un endomorfismo de E cuya matriz en esta base es 2 0 1

1 1 02 0 −2

y g el endomorfismo de E determinado por

g(e1) = e1 + e3

g(e2) = 2e1 + e2 + 3e3

g(e3) = 3e1 + e2 + 4e3

Hallar las matrices asociadas a los endomorfismos g ◦ f y 2f − 3g.

Page 375: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

363

13. Calcular el rango de las matrices

A3 =

a 0 bb a 00 b a

y A4 =

a 0 0 bb a 0 00 b a 00 0 b a

Generalizarlo para An.

14. Calcular por transformaciones elementales de tipo fila la inversa de lamatriz

A =

1 0 0 0 00 0 3 0 −30 0 0 6 00 1 0 0 00 0 1 0 1

15. Calcular por transformaciones elementales de tipo columna, la inversa de

la matriz

A =

2 0 11 0 11 1 −1

16. Calcular la matriz triangular equivalente a la matriz

A =

3 1 0 01 1 −1 10 1 2 11 2 1 2

utilizando únicamente transformaciones de tipo fila.

Page 376: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

364 APÉNDICE C. MATRICES

Page 377: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Apéndice D

Determinantes

1. Sea el espacio vectorial R2. Se considera la aplicación f : R2 × R2 → Rdefinida por

f(x,y) = x1y1 − x2y2

con x = (x1, x2),y = (y1, y2). Estudiar si f es una forma bilineal. ¿Essimétrica? ¿Es antisimétrica? ¿Es alternada?

2. Calcular el determinante de la matriz A = (aij), donde aij = |i− j|.

3. Probar que (x− 1)3 divide al polinomio¯¯ 1 x x2 x3

1 1 1 11 2 3 41 4 9 16

¯¯

4. Dada la matriz

M =

µ0 A

adj A 0

¶calcular detM en función de detA. (adj A indica la matriz adjunta de A,que se obtiene a partir de A sustituyendo cada elemento por su adjunto).

5. Descomponer el polinomio de C [x]¯¯¯1 + x+ x2 1 1 1 1

1 1 + x+ x2 1 1 11 1 1 + x+ x2 1 11 1 1 1 + x+ x2 11 1 1 1 1 + x+ x2

¯¯¯

en factores irreducibles.

365

Page 378: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

366 APÉNDICE D. DETERMINANTES

6. Sea E el espacio vectorial de las funciones reales de variable real generadopor sin y cos. Calcular el determinante del endomorfismo de E definidopor la derivación.

7. Sea A una matriz cuadrada de orden n y adj A, la matriz adjunta de A.Demostrar:

a) det(adj A) = (detA)n−1

b) Si rang A = n− 1, entonces rang (adj A) = 18. Consideremos el determinante

D (n, k) =

¯¯¯1k 2k · · · nk

2k 3k · · · (n+ 1)k

......

. . ....

nk (n+ 1)k · · · (2n− 1)k

¯¯¯

a) Calcular D (1, 1) ,D (2, 1) ,D (3, 1) ,D (4, 1)

b) Demostrar que D (n, 2) = 0, para todo n > 3

c) Demostrar que D (n, k) = 0, para todo n > k + 1

9. Demostrar que, si A es invertible,¡A−1

¢t= (At)

−1.

10. Demostrar que el determinante¯¯ 3 0 1 49 2 2 42 3 1 44 4 5 9

¯¯

es múltiplo de 3.

11. Calcular el determinante de la matriz A cuadrada de orden n tal queaij = −1 si i = j, y aij = x si i 6= j, para todo 1 ≤ i, j ≤ n.

12. Calcular el rango de la matriz

A =

1 2 3 4 5 62 3 4 5 6 71 1 1 1 1 12 4 6 8 1 2

13. Hallar las ecuaciones definidoras del subespacio vectorial S = h(1, 1, 1, 1), (1, 2, 3, 4), (3, 2, 1, 0)i

de R4.

14. Dada la matriz

A =

µx x− 22 x

¶Calcular los valores de x para que puedan existir matrices B cuadradasde orden 2, no nulas, tales que AB = O.

Page 379: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

367

15. Calcular la matriz inversa de la matriz

A =

1 i −ii 1 0−i 0 1

siendo i2 = −1.

16. El determinante de Vandermonde de orden 4 tiene la siguiente forma

D =

¯¯ 1 1 1 1a b c da2 b2 c2 d2

a3 b3 c3 d3

¯¯

Demostrar que D = (b− a)(c− a)(d− a)(c− b)(d− b)(d− c).

Page 380: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

368 APÉNDICE D. DETERMINANTES

Page 381: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Apéndice E

Sistemas de ecuacioneslineales

1. Dado el sistemax+ by + az = 1ax+ by + z = ax+ aby + z = b

a) ¿Para qué valores de a y b el sistema tiene solución?

b) Resolverlo y determinar cuándo tiene una única solución.

2. Discutir el sistema homogéneo

−6x− 6y + (11− a) z = 03x+ (12− a) y − 6z = 0(2− a)x+ 3y − 6z = 0

y encontrar sus soluciones.

3. Resolver los sistemas de congruencias

x+ 2y + z ≡ 12x+ y + 2z ≡ 1

y + 2z ≡ 1

(mod 5)

x+ 2y + z ≡ −12x+ y + 2z ≡ 1

y + 2z ≡ 1

(mod 3)

4. Encontrar un sistema de ecuaciones lineales homogéneo cuyas solucionessean exactamente los vectores del subespacio vectorial de (Z7)4 generadopor los vectores

(1, 0, 1,−1) , (2, 1, 3, 0) , (1, 3, 4, 5)

369

Page 382: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

370 APÉNDICE E. SISTEMAS DE ECUACIONES LINEALES

5. Discutir según los valores del parámetro a el sistema de congruencias mó-dulo 5

x+ y + 3z ≡ 22x+ 3y + 4z ≡ 03x+ 4y + az ≡ 3

6. Hallar la solución por el método de Gauss del siguiente sistema

x1 + x2 + x3 + x4 = 10x1 − x2 + 2x3 + x4 = 9

2x1 + x3 + x4 = 94x1 + 2x2 − x3 + 2x4 = 13

7. Hallar la inversa de la matriz

1 a a2 a3 a4

0 1 a a2 a3

0 0 1 a a2

0 0 0 1 a0 0 0 0 1

8. Discutir el siguiente sistema según los valores de a y b

x+ y + z = 32x− ay + 3z = 43x− 3y + 4z = 7

5x− (a+ b)y + 7z = 8 + b

9. Dadas las matrices

A =

1 a 32 1 41 0 2

, B =

b 0 11 1 b2 b 0

, C =

1 3 10 1 01 2 1

,D =

2 11 2−2 −8 −20 −2 0

¿Para qué valores de a, b ∈ R los sistemas de ecuaciones AX = B yXC = D tienen una solución común?. Hallar dicha solución.

Page 383: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Apéndice F

Diagonalización deendomorfismos

1. Estudiar la diagonalización de las siguientes matrices deMn(K) para K =Q,R,C.

a) 1 2 −2−1 3 00 2 1

b) 3 −1 −1

−6 1 22 1 0

c) 5 6 −3

−1 0 11 2 −1

d)

1 1 1 11 1 −1 −11 −1 1 −11 −1 −1 1

e) 3 1 0

−4 −1 04 −8 −2

371

Page 384: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

372 APÉNDICE F. DIAGONALIZACIÓN DE ENDOMORFISMOS

2. Sea f el endomorfismo de R4 definido por

f(x, y, z, t) = (x− z + (a+ 2)t, y + z − 2t, 2z + (a− 3)t, at)a) Calcular su matriz en la base canónica de R4

b) Determinar para qué valores de a es diagonalizable f .

3. Hallar los posibles valores propios de un endomorfismo f involutivo (f◦f =I).

4. Estudiar si son equivalentes las matrices

A =

1 −1 2 40 5 0 00 12 1 80 9 1 3

B =

2 0 0 010 −2 11 611 0 6 3−7 0 7 4

5. Calcular el polinomio característico, utilizando los menores principales de

la matriz

A =

−4 0 −4 11−6 3 −3 95 1 5 −7−1 1 −1 5

6. Sabiendo que las matrices

A =

µa −55 4

¶y B =

µ3i 00 3i

¶son equivalentes, calcular el valor de a.

7. Encontrar una matrizA ∈M3(R) con vectores propios (1, 2,−1), (1, 0, 1), (0, 1,−2)de valores propios −2, 1, 2 respectivamente.

8. Encontrar las condiciones que deben verificar a, b, c, d, e, f para que lamatriz real

A =

1 0 0 0a 1 0 0b c 2 0d e f 2

sea diagonalizable.

9. Encontrar los valores propios de la matriz

A =

a b c db a c db c a db c d a

¿Diagonaliza?

Page 385: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

373

10. Sea f ∈ EndR(E). Probar que si dim E es senar, entonces f tiene algúnvalor propio, y que si dim E es par y det f < 0, f tiene al menos dosvalores propios. Dar un ejemplo de un endomorfismo sin valores propios.

11. Sea A ∈ Mn(R) y α ∈ R no nulo. Encontrar la relación que hay entre elpolinomio característico de A y el polinomio característico de αA. Deducirque si λ es un valor propio de A, entonces αλ es un valor propio de αAy que si x es un vector propio de A de valor propio λ, entonces x es unvector propio de αA de valor propio αλ.

Page 386: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

374 APÉNDICE F. DIAGONALIZACIÓN DE ENDOMORFISMOS

Page 387: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Apéndice G

Forma reducida de Jordan

1. Se consideran las siguientes matrices de M3(R) :

A1 =

1 0 01 1 01 0 1

, A2 =

1 0 −10 3 −40 1 −1

, A3 =

2 1 −1−2 −1 2−1 −1 2

Razonar cuáles de estas matrices son equivalentes entre sí, es decir, cuálesde estas matrices pueden serlo de un mismo endomorfismo.

Indicación:Dos matrices son equivalentes si tienen la misma forma canóni-ca de Jordan.

2. Dadas las matrices de M3(C),

A =

4 −1 −16 −1 −23 −1 0

y B =

1 0 0α 1 01 0 β

hallar para qué valores de α y β pueden ser equivalentes (matrices delmismo endomorfismo).

3. Dada la matriz

A =

−1 −3 0 31 0 0 −10 0 −1 01 −2 0 1

a) Encontrar la forma canónica de Jordan y una base de Jordan para

A.

b) ¿Qué vectores de esta base son vectores propios de A?¿Podríamosencontrar una base de R4 formada por vectores propios de A?

375

Page 388: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

376 APÉNDICE G. FORMA REDUCIDA DE JORDAN

4. Calcular la forma canónica de Jordan de 5 0 −40 2 02 0 −1

5. Calcular la forma canónica de Jordan de

1 3 2 00 1 0 00 2 −2 06 6 −3 4

6. Calcular la forma canónica de Jordan de

2 0 1 2−1 3 0 −12 −2 4 6−1 1 −1 −1

7. Calcular la forma canónica de Jordan de

−4 0 −4 11−6 3 −3 95 0 5 −7−1 0 −1 5

8. Estudiar para qué valores de los parámetros a y b es diagonalizable la

matriz 5 0 00 −1 b3 0 a

calculando la forma canónica de Jordan para los valores a = −1 y b = −1.

9. Calcular la forma canónica de Jordan de las siguientes matrices:

A =

µ1 10 1

¶y B =

1 2 32 1 33 3 0

10. Calcular la forma canónica de Jordan de las siguientes matrices:

A =

10 4 135 3 7−9 −4 −12

y B =

3 0 00 1 50 −5 1

11. De una matrizA se sabe que el conjunto de sus valores propios es {1,−1, 6}.

Además, se tiene:

Page 389: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

377

a) dim Nuc (A− I) = dim Nuc (A− I)2 = 1

b) dim Nuc (A+ I) = 1

c) dim Nuc (A+ I)2 = 2

d) dim Nuc (A+ I)3 = dim Nuc (A+ I)4 = 3

e) dim Nuc (A− 6I) = dim Nuc (A− 6I)2 = 1

¿Cuál es la forma canónica de Jordan de A?

12. Sea B = {e1, e2, e3, e4, e5} una base del espacio vectorial R5. Sea f unendomorfismo de R5 del que se conoce

a) f(e2) = −e2b) f(e3 + e4) = e3 + e4

c) f(e5) = 2e5 + e1 − e2El polinomio característico de f tiene la raíz triple 2. Las ecuaciones im-plícitas, respecto de la base B, del núcleo del endomorfismo f − 2I son x1 + x2 + x3 = 0

x3 + x4 = 0x5 = 0

Calcular la forma canónica de Jordan de f .

Page 390: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

378 APÉNDICE G. FORMA REDUCIDA DE JORDAN

Page 391: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Apéndice H

Formas bilineales simétricasy formas cuadráticas

1. Sea f : R2 ×R2 → R la aplicación definida por

f(x, y) = 2x1y1 − 3x1y2 + x2y2

a) Demostrar que f es bilineal. ¿Es simétrica?

b) Hallar la matriz A de f respecto de la base ((1, 0), (0, 1)).

c) Hallar la matriz B de f respecto de la base ((2, 1), (1,−1)).d) Hallar la matriz P tal que B = P tAP .

2. Es cierta la desigualdad de Schwarz para la forma cuadrática cuya formabilineal asociada tiene por matriz respecto de una cierta base 1 1 1

1 3 01 0 2

3. Clasificar la siguiente forma cuadrática

q(x, y, z) = −3x2 + 4xy + 10xz − 4yz

Calcular una forma reducida.

4. Obtener la forma reducida en una base ortogonal respecto a q de las sigu-ientes formas cuadráticas:

a) q(x, y, z) = −x2 + y2 − 5z2 + 6xz + 4yzb) q(x, y, z) = 2xy + 2yz + 2xz

c) q(x, y, z, t) = x2 + 6y2 − 4xy + z2 + 2yt+ t2

379

Page 392: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

380APÉNDICE H. FORMAS BILINEALES SIMÉTRICAS Y FORMAS CUADRÁTICAS

5. Clasificar las formas cuadráticas asociadas a las formas bilineales simétri-cas que tienen por matrices en la base canónica de R3

(a)

4 2 −22 5 1−2 1 3

(b)

1 2 3 42 5 8 113 8 14 204 11 20 30

6. Dadas las matrices asociadas a formas cuadráticas

A1 =

2 −1 −1−1 2 −1−1 −1 2

, A2 =

1 0 10 1 01 0 1

, A3 =

1 1 11 2 21 2 3

¿Son equivalentes? (es decir, ¿representan la misma forma cuadrática?) SiA y B son dos de estas matrices equivalentes, hallar la matriz inversibleS tal que B = StAS.

Page 393: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Agradecimientos

Quiero expresar aquí mi sincero agradecimiento a la profesora Bárbara Lla-cay por haber colaborado en la realización de algunos capítulos de este libro.

381

Page 394: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

382 AGRADECIMIENTOS

Page 395: Álgebra Lineal. Teoría y Práctica (Aprendes.com)

Bibliografía

[1] Roger Godement. Álgebra. Editorial Tecnos, 1971.

[2] G. Birkhoff S. Mac Lane. Álgebra Moderna. Editorial Vicens-Vives, 1974.

[3] Michel Queysanne. Álgebra Lineal. Editorial Vicens-Vives, 1973.

[4] A. Lentin J. Rivaud. Álgebra Moderna. Editorial Aguilar, 1973.

[5] J. Sancho San Roman. Álgebra Lineal Y Geometría. Universidad deZaragoza, 1973.

[6] J. Teixidor J. Vaquer. Curso de Matemáticas. Universidad de Barcelona,1972.

383