Upload
oscarcbz
View
3.395
Download
3
Embed Size (px)
Citation preview
UNIVERSIDAD INDUSTRIAL DE SANTANDER FACULTAD DE INGENIERÍAS FISICOQUÍMICAS
ESCUELA DE INGENIERIA DE PETROLEOS METODOS NUMERICOS
MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES
LINEALES
OSCAR ALBERTO ESTÉVEZ REAL
UNIVERSIDAD INDUSTRIAL DE SANTANDER MÉTODOS NUMÉRICOS
2010
MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES
LINEALES
METODOS DIRECTOS
1 Sistemas de ecauciones lineales
2 Matriz Simétrica
3 Matriz traspuesta
4 Determinante
5Triangulo superior
6 Triangulo inferior
7 Matriz bandeada – Matriz aumentada
8 Multiplicación de matrices
9 Aplicación al calculo de la matriz inversa
10 Metodo de gauss jordan
11 Eliminación de gauss jordan
12 Ecuaciones Lineales Sistemas Especiales
METODOS ITERATIVOS
1 Jacobi
2 Gauss- seidel
3 Gauss seidel con relajación
1 SISTEMAS DE ECUACIONES LINEALES
En matemáticas, una matriz es una tabla bidimensional de números consistente
en cantidades abstractas que pueden sumarse y multiplicarse. Las matrices se
utilizan para describir sistemas de ecuaciones lineales, realizar un seguimiento
de los coeficientes de una aplicación lineal y registrar los datos que dependen
de varios parámetros. Las matrices se describen en el campo de la teoría de
matrices. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo
que también las hace un concepto clave en el campo del álgebra lineal.
DEFINICIONES Y NOTACIONES
Una matriz es una tabla cuadrada o rectangular de datos
(llamados elementos o entradas de la matriz) ordenados en filas y columnas,
donde una fila es cada una de las líneas horizontales de la matriz y una
columna es cada una de las líneas verticales. A una matriz con mfilas
y n columnas se le denomina matriz m-por-n (escrito m×n), y
a m y n dimensiones de la matriz. Las dimensiones de una matriz siempre se
dan con el número de filas primero y el número de columnas después.
Comúnmente se dice que una matriz m-por-n tiene unorden de m × n ("orden"
tiene el significado de tamaño). Dos matrices se dice que son iguales si son del
mismo orden y tienen los mismos elementos.
Al elemento de una matriz que se encuentra en la fila i-ésima y la columna j-
ésima se le llama elemento i,j o elemento (i,j)-iésimo de la matriz. Se vuelve a
poner primero las filas y después las columnas.
Casi siempre, se denotan a las matrices con letras mayúsculas mientras que se
utilizan las correspondientes letras en minúsculas para denotar a los elementos
de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en
la fila i-ésima y la columna j-ésima se le denota como ai,j o a[i,j]. Notaciones
alternativas son A[i,j] o Ai,j. Además de utilizar letras mayúsculas para
representar matrices, numerosos autores representan a las matrices con
fuentes en negrita para distinguirlas de otros tipos de variables. Así A es una
matriz, mientras que A es un escalar.
Normalmente se escribe para definir una matriz A m × n con
cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ i≤ m y 1 ≤ j ≤ n. Sin
embargo, la convención del inicio de los índices i y j en 1 no es universal:
algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0
≤ i ≤ m − 1 y 0 ≤ j ≤ n − 1.
Una matriz con una sola columna o una sola fila se denomina a menudo vector,
y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una
fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna
y m filas) se denomina vector columna.
Ejemplo:
La matriz es una matriz 4x3. El elemento o es 7.
La matriz
es una matriz 1×9, o un vector fila con 9 elementos.
2 MATRIZ SIMÉTRICA
Una matriz de elementos:
es simétrica, si es una matriz cuadrada (m = n) y aij = aji para todo i, j
=1,2,3,4,...,n. Nótese que la simetría es respecto a la diagonal principal y que A
es también, la matriz traspuesta de sí misma: At = A.
Ejemplo para n = 3:
PROPIEDADES
Uno de los teoremas básicos que concierne este tipo de matrices es el teorema
espectral de dimensión finita, que dice que toda matriz simétrica cuyas
entradas sean reales puede ser diagonalizada por una matriz ortogonal. Éste
es un caso especial de una matriz hermítica.
3 MATRIZ TRASPUESTA
Sea A una matriz con m filas y n columnas. La matriz traspuesta, denotada
con At está dada por
Ejemplos:
PROPIEDADES:
Para toda matriz
Sean A y B matrices con elementos pertenecen a un anillo y sea :
Si el producto de las matrices A y B está definido,
Si A es una matriz cuadrada cuyas entradas son números reales, entonces
es semidefinida positiva
4 DETERMINANATE
En matemáticas se define el determinante como una forma multilineal
alternada de un cuerpo En. Esta definición indica una serie de propiedades
matemáticas y generaliza el concepto de determinante haciéndolo aplicable en
numerosos campos. Sin embargo, el concepto de determinante o de volumen
orientado fue introducido para estudiar el número de soluciones de los sistemas
lineales de ecuaciones.
MÉTODOS DE CALCULO
Para el cálculo de determinantes de matrices de cualquier orden, existe una
regla recursiva (teorema de Laplace) que reduce el cálculo a sumas y restas de
varios determinantes de un orden inferior. Este proceso se puede repetir tantas
veces como sea necesario hasta reducir el problema al cálculo de múltiples
determinantes de orden tan pequeño como se quiera. Sabiendo que el
determinante de un escalar es el propio escalar, es posible calcular el
determinante de cualquier matriz aplicando dicho teorema.
MATRICES DE ORDEN INFERIOR
El caso de matrices de orden inferior (orden 2 o 3) es tan sencillo que su
determinante se calcula con sencillas reglas conocidas. Dichas reglas son
también deducibles del teorema de Laplace
Los determinantes de una matriz de orden 2:
se calculan con la siguiente fórmula:
Un determinante de orden 3 se calcula mediante la regla de Sarrus:
DETERMINANTES DE ORDEN SUPERIOR A 3
El determinante de orden n, puede desarrollarse a partir de una fila o columna,
reduciendo el problema al cálculo de un determinante de orden n-1. Para ello
se toma una fila o columna cualquiera, multiplicando cada elemento por
su adjunto (es decir, el determinante de la matriz que se obtiene eliminando la
fila y columna correspondiente a dicho elemento, multiplicado por (-1)i+j donde i
es el número de fila y j el número de columna). La suma de todos los productos
es igual al determinante.
En caso de un determinante de orden 4, se obtienen directamente
determinantes de orden 3 que podrán ser calculados por la regla de Sarrus. En
cambio, en los determinantes de orden superior, como por ejemplo n = 5, al
desarrollar los elementos de una línea, obtendremos determinantes de orden 4,
que a su vez se deberán desarrollar en por el mismo método, para obtener
determinantes de orden 3. Por ejemplo, para obtener con el método
especificado un determinante de orden 4, se deben calcular 4 determinantes de
orden 3. En cambio, si previamente se logran tres ceros en una fila o columna,
bastara con calcular solo un determinante de orden 3 (ya que los demás
determinantes estarán multiplicados por 0, lo que los anula).
La cantidad de operaciones aumenta muy rápidamente. En el peor de los casos
(sin obtener ceros en filas y columnas), para un determinante de orden 4 se
deberán desarrollar 4 determinates de orden 3. En un determinante de orden 5,
se obtienen 5 determinates de orden 4 a desarrollar, dándonos 20 determinates
de orden 3. El número de determinates de orden 3 que se obtienen en el
desarrollo de un determinante de orden n es igual a
Por ejemplo, mediante este método, para un determinante de orden 10 se
deberán calcular 10 x 9 x 8 x 7 x 6 x 5 x 4 = 604.800 determinantes de orden 3.
También puede utilizarse el Método de eliminación Gaussiana, para convertir la
matriz en una matriz triangular. Si bien el proceso puede parecer tedioso,
estará muy lejos de los 14.529.715.200 de determinantes de orden 3
necesarios para calcular el determinante de una matriz de orden 14.
.
Partiendo de una matriz 3×3:
Para calcular el determinante por los adjuntos de la primera fila:
Desarrollando los determinantes 2*2, tendremos:
Que podemos ordenar, para presentarlo en la forma usual de la Regla de
Sarrus:
MATRIZ TRIANGULAR
En álgebra lineal, una matriz triangular es un tipo especial de matriz
cuadrada cuyos elementos por encima o por debajo de su diagonal
principal son cero. Debido a que los sistemas de ecuaciones lineales con
matrices triangulares son mucho más fáciles de resolver, las matrices
triangulares son utilizadas en análisis numérico para resolver sistemas de
ecuaciones lineales, calcular inversas y determinantes de matrices. El método
de descomposición LU permite descomponer cualquier matriz
invertible como producto de una matriz triangular inferior L y una superior U.
5 TRIANGULAR SUPERIOR
Es una matriz triangular superior los elementos situados por debajo de la
diagonal principal son ceros.
EJEMPLO
6 TRIANGULAR INFERIOR
Es una matriz triangular inferior los elementos situados por ensima de la
diagonal principal son ceros.
EJEMPLO
7 MATRIZ BANDEADA
Un gran número de sus componentes son cero:
8 MULTIPLICACIÓN DE MATRICES
En matemática, la multiplicación o producto de matrices es
la operación de multiplicación que se efectúa entre dos matrices, o bien entre
una matriz y un escalar.
Al igual que la multiplicación aritmética, su definición es instrumental, es decir,
viene dada por un algoritmo capaz de resolverla. El algoritmo que resuelve la
multiplicación matricial es diferente del que resuelve la multiplicación de dos
números. La diferencia principal es que la multiplicación de matrices no cumple
con la propiedad de conmutatividad.
MULTIPLICACIÓN DE UN ESCALAR POR UNA MATRIZ
Dada una matriz A de m filas y n columnas, lo que podemos denotar como:
la multiplicación de A por un escalar k, que se denota k·A, k×A o
simplemente kA, está definida como:
es decir, corresponde a la matriz conformada por cada elemento de la matriz
multiplicado por dicho escalar.
Gráficamente, si
y
entonces
La multiplicación por escalar es análoga a la suma o resta de matrices, y
cumple con las mismas características de la multiplicación aritmética. En
efecto, podemos llegar al mismo resultado sumando k veces la misma
matriz A entre sí.
PROPIEDAD DESCRIPCIÓN
CLAUSURA cA es también una matriz
ELEMENTO NEUTRO
Existe el elemento neutro uno, de manera que 1·A = A
PROPIEDAD ASOCIATIVA
(cd)A = c(dA)
PROPIEDAD DISTRIBUTIVA
c(A+B) = cA+cB
- DE ESCALAR - DE MATRIZ
(c+d)A = cA+dA
MULTIPLICACION DE UNA MATRIZ POR UNA MATRIZ
Dadas dos matrices A y B, tales que el número de columnas de la matriz A es
igual al número de filas de la matriz B; es decir:
y
a multiplicación de A por B, que se denota A·B, A×B o simplemente AB, está
definida como:
donde cada elemento ci,j está definido por:
Gráficamente, Si
y
Entonces
PROPIEDADES
Sean A, B y C matrices para las cuales la multiplicación entre ellas está bien
definida, es decir, tales que sus elementos pertenecen a uncuerpo donde la
multiplicación está definida, y de manera que el número de filas y de columnas
permite realizar la multiplicación; entonces se cumplen las siguientes
propiedades:
PROPIEDAD DESCRIPCIÓN
CLAUSURA AB es también una matriz
ELEMENTO NEUTRO
Si A es una matriz cuadrada de tamaño m, entonces la matriz identidad Im×mes elemento neutro, de manera que I·A = A
PROPIEDAD ASOCIATIVA
(AB)C = A(BC)
PROPIEDAD DISTRIBUTIVA - POR LA DERECHA - POR LA IZQUIERDA
(A + B)C = AC + BC C(A + B) = CA + CB
El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠
BA. La división entre matrices, es decir, la operación que podría producir el
cociente A / B, no se encuentra definida. Sin embargo, existe el concepto
de matriz inversa, sólo aplicable a las matrices cuadradas.
Finalmente, note que tanto la multiplicación de una matriz por un escalar, como
la multiplicación de dos escalares, puede representarse mediante una
multiplicación de dos matrices.
APLICACIONES
La multiplicación de matrices es muy útil para la resolución de sistemas de
ecuaciones de muchas variables, dado que son muy cómodas para ser
implementadas mediante un computador. El cálculo numérico se basa en gran
parte de estas operaciones, al igual que poderosasaplicaciones tales
como MATLAB. También actualmente se utiliza mucho en el cálculo
de microarrays, en el área de bioinformática.
9 APLICACION AL CALCULO DE LA MATRIZ INVERSA
Planteamiento del problema
Sea una matriz A a la que se presente obtener su inversa X, entonces
AX = I
Esto significa resolver n sistemas de ecuaciones lineales con la misma matriz, donde los segundos miembros son los vectores de la base canonica. De cada sistema j -esimo se obtiene la j -esima columna de la matriz inversa X:
Resolución del problema
El procedimiento mas adecuado es utilizar la factorización de Cholesky si el problema es simétrico o la LU si no lo es. De esta forma, las operaciones de triangulación solo se realizan una vez. Esto supone el coste de una factorización y n procesos de remonte de dos sistemas triangulares. Numero de operaciones Caso simétrico *Raíces cuadradas: n *Multiplicaciones/divisiones:
*Sumas/restas:
Caso no simétrico *Multiplicaciones/divisiones:
*Sumas/restas:
ANEXOS
10 METODO DE GAUSS JORDAN
El método de gauss- jordan es una variable del método de gauss . Cuando se
elimina una incognita en una ecuación , gauss-jordan elimina esa incognita en
el resto de las ecuaciones , tomando como base para la eliminación a la
ecuación pivote.Tambien todos los renglones se normalizan cuando se toma
una ecuación pivote .El resultado final de este tipo de eliminación genera una
matriz identidad en vez de una triangular como lo hace gauss, por lo que no se
usa la sustitución hacia atrás.
Código fortran
Ver : http://www.youtube.com/watch?v=I1kexTz5GTM&feature=related
11 METODO DE ELIMINACIÓN DE JORDAN
En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación
de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm
Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un
sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de
ecuaciones se resuelve por el método de Gauss cuando se obtienen sus
soluciones mediante la reducción del sistema dado a otro equivalente en el que
cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica
este proceso, la matriz resultante se conoce como: "forma escalonada".
ANALISIS DE COMPLEJIDAD
La complejidad computacional de la eliminación gaussiana es
aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el
tamaño de la matriz es n × n.
ALGORITMO DE ELIMINACION DE GAUSS JORDAN
1. Ir a la columna no cero extrema izquierda
2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con
otro que no lo tenga
3. Luego, obtener ceros debajo de este elemento delantero, sumando
múltiplos adecuados del renglón superior a los renglones debajo de él
4. Cubrir el renglón superior y repetir el proceso anterior con
la submatriz restante. Repetir con el resto de los renglones (en este
punto la matriz se encuentra en la forma de escalón)
5. Comenzando con el último renglón no cero, avanzar hacia arriba: para
cada renglón obtener un 1 delantero e introducir ceros arriba de este
sumando múltiplos correspondientes a los renglones correspondientes
EJEMPLO
Supongamos que es necesario encontrar los números x, y, z, que satisfacen
simultáneamente estas ecuaciones:
Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el
sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones
(llamadas elementales) son estas:
Multiplicar una ecuación por un escalar no nulo.
Intercambiar de posición dos ecuaciones
Sumar a una ecuación un múltiplo de otra.
Estas operaciones pueden representarse con matrices elementales que se
usan también en otros procedimientos como la factorización LUo la
diagonalización por congruencia de una matriz simétrica.
En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces
la primera ecuación a la segunda y después sumamos la primera ecuación a la
tercera. El resultado es:
Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda
ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera
para eliminar y.
Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera
ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda
para eliminar z.
Despejando, podemos ver las soluciones:
Para clarificar los pasos (y es en realidad lo que las computadoras manejan),
se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación
matricial:
Primero:
Después,
Por último.
Si el sistema fuera incompatible, entonces nos encontraríamos con una fila
como esta:
Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene
solución.
CODIGO FORTRAN
VER: http://www.youtube.com/watch?v=sKBoKqX6WV0&feature=fvw
12 ECUACIONES LINEALES SISTEMAS ESPECIALES
Método de Cholesky
En matemáticas, la factorización o descomposición de Cholesky toma su
nombre del matemático André-Louis Cholesky, quien encontró que una matriz
simétrica definida positiva puede ser descompuesta como el producto de
una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La
matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva
definida. El resultado de Cholesky ha sido extendido a matrices con entradas
complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se
deriva de la factorización LU con una pequeña variación.
Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el
producto de una matriz triangular inferior L y una matriz triangular superior U;
esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica
y definida positiva, se pueden escoger los factores tales que U es la
transpuesta de L, y esto se llama la descomposición o factorización de
Cholesky. Tanto la descomposición LU como la descomposición de Cholesky
son usadas para resolver sistemas de ecuaciones lineales. Cuando es
aplicable, la descomposición de Cholesky es dos veces más eficiente que la
descomposición LU.
Definición
En general, si A es Hermitiana y definida positiva, entonces A puede ser
descompuesta como
donde L es una matriz triangular inferior con entradas diagonales
estrictamente positivas, y L* representa la conjugada traspuesta de L. Esta
es la descomposición de Cholesky.
La descomposición de Cholesky es única: dada una matriz Hermitiana
positiva definida A, hay una única matriz triangular inferior L con entradas
diagonales estrictamente positivas tales que A = LL*. El recíproco se tiene
trivialmente: si A se puede escribir como LL* para alguna matriz
invertible L, triangular inferior o no, entonces A es Hermitiana y definida
positiva.
El requerimento de que L tenga entradas diagonales estrictamente
positivas puede extenderse para el caso de la descomposición en el caso
de ser semidefinida positiva. La proposición se lee ahora: una matriz
cuadrada A tiene una descomposición de Cholesky si y sólo si A es
Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky para
matrices semidefinidas positivas no son únicas en general.
En el caso especial que A es una matriz positiva definida simétrica con
entradas reales, L se puede asumir también con entradas reales. Una
Matriz D diagonal con entradas positivas en la diagonal, es factorizable
como , donde es matriz cuya diagonal consiste en la
raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:
La factorización puede ser calculada directamente a través de las
siguientes fórmulas (en este caso realizamos la factorizacón
superior A =UT * U):
para los elementos de la diagonal principal, y:
para el resto de los elementos.
Donde uij son los elementos de la matriz U.
Aplicaciones
La descomposición de Cholesky se usa principalmente para hallar la
solución numérica de ecuaciones lineales Ax = b. Si A es simétrica y
positiva definida, entonces se puede solucionar Ax = b calculando
primero la descomposición de Cholesky A = LLT, luego
resolviendo Ly =b para y, y finalmente resolviendo LTx = y para x.
Como método de factorización LU es aplicable a una matriz simétrica
y definida positiva donde:
Por lo tanto
TLU
bxLL
bAx
T
A partir del producto de la n-ésima fila de L por la n-ésima columna de LT se
tiene que:
Haciendo el barrido desde k=1 hasta n se tiene que
Por otro lado si multiplicamos la n-ésima fila de L por la columna (n-1) de LT se
tiene que:
Haciendo el barrido para k=1 hasta n se tiene que:
MÉTODO DE THOMAS
Este método surge como una simplificación de una factorización LU sobre una
matriz tridiagonal.
1
1
2
,
1
1
2
,
2
2
1,
2
2,
2
2,
2
1,
2
22
1,
2
2,
2
2,
2
1,
n
j
jnnnnn
n
j
jnnnnn
nnnnnnnnnn
nnnnnnnnnn
LaL
LaL
LLLLaL
aLLLLL
1
1
2
,
k
j
jkkkkk LaL
2
1
,1,1,1,
1,1
2,12,2,12,1,11,1,
1,
1,1,11,2,12,2,12,1,11,
n
j
jnjnnnnn
nn
nnnnnnnnnn
nn
nnnnnnnnnnnnnn
LLaL
L
LLLLLLaL
aLLLLLLLL
11
1
1
,,,,
kidonde
LLaLi
j
jijkikik
Basados en el producto matricial mostrado anteriormente se obtienen las
siguientes expresiones:
Por lo que haciendo el barrido desde k=2 hasta n se llega a lo siguiente:
00
,
1
,11,,
1,1
1,1
1,
111
n
nnnnnnn
nnn
nn
nnn
cya
Donde
ULbU
cU
U
aL
bU
kkkkkkk
kkk
kk
kkk
ULbU
cU
U
aL
,11,,
1,1
1,1
1,
Si LUx=r y Ux=d entonces Ld=r, por lo tanto :
Por lo que a partir de una sustitución progresiva
Finalmente resolvemos Ux=d a partir de una sustitución regresiva:
11,
11
2
kkkkk dLrd
nhastakDesde
rd
METODOS ITERATIVOS
1 JACOBI
En análisis numérico el método de Jacobi es un método iterativo, usado para
resolver sistemas de ecuaciones lineales del tipo Ax = b. Elalgoritmo toma su
nombre del matemático alemán Carl Gustav Jakob Jacobi.
Descripción
La base del método consiste en construir
una sucesión convergente definida iterativamente. El límite de esta sucesión es
precisamente la solución del sistema. A efectos prácticos si el algoritmo se
detiene después de un número finito de pasos se llega a una aproximación al
valor de x de la solución del sistema.
La sucesión se construye descomponiendo la matriz del sistema en la forma
siguiente:
nn
nn
U
dx
Donde
,
,
kk
n
kj
jkjk
kU
xUd
x
hastankPara
,
1
,11
donde
, es una matriz diagonal.
, es una matriz triangular inferior.
, es una matriz triangular superior.
Partiendo de , podemos reescribir dicha ecuación como:
Luego,
Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de
Jacobi puede ser expresado de la forma:
donde k es el contador de iteración, Finalmente tenemos:
Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k),
excepto el que tenga el mismo i. Por eso, al contrario que en el método Gauss-
Seidel, no se puede sobreescribir xi(k) con xi
(k+1), ya que su valor será necesario
para el resto de los cálculos. Esta es la diferencia más significativa entre los
métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es
de dos vectores de dimensión n, y será necesario realizar un copiado explícito.
Algoritmo en java
public class Jacobi { double [][]matriz={{4,-2,1},{1,-5,3},{2,1,4}}; double []vector={2,1,3}; double []vectorR={1,2,3}; double []x2=vectorR; double sumatoria=1; int max=50; public void SolJacobi(){ int tam = matriz.length; for (int y = 0; y < 10; y++) {
system.outtt.println("\nvector " + y + "\n"); for(int t=0;t>max;t++){ x2=vectorR.clone(); for (int i = 0; i < tam; i++) { sumatoria=0; for (int s = 0; s < tam; s++) { if(s!=i)sumatoria += matriz[i][s]*x2[s]; } vectorR[i]=(vector[i]-sumatoria)/matriz[i][i]; System.out.print(" " + vectorR[i]); } } } } public static void main(String[] args) { jacobi obj=new Jacobi(); obj.SolJacobi(); } }
VER : http://www.youtube.com/watch?v=HbqGnFU62-Y
2 GAUSS- SEIDEL
METODO DE GAUSS SEIDEL
En análisis numérico el método de Gauss-Seidel es un método
iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se
llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp
Ludwig von Seidel y es similar al método de Jacobi.
Es un método iterativo, lo que significa que se parte de una aproximación inicial
y se repite el proceso hasta llegar a una solución con un margen de error tan
pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones
lineales, en notación matricial:
El método de iteración Gauss-Seidel es
donde
para i=j, o para .
y
Esto es también que :
Si
definimos
y
.
Considerando el sistema Ax=b, con la condición de que , i= 1, ..., n.
Entonces podemos escribir la fórmula de iteración del método
,
i=1,...,n(*)
La diferencia entre este método y el de Jacobi es que, en este último, las
mejoras a las aproximaciones no se utilizan hasta completar las iteraciones.
CONVERGENCIA
Teorema: Suponga una matriz es una matriz no singular que
cumple la condición de
ó .
Entonces el método de Gauss-Seidel converge a una solución del sistema
de ecuaciones Ax=b, y la convergencia es por lo menos tan rápida como la
convergencia del método de Jacobi.
Para ver los casos en que converge el método primero mostraremos que se
puede escribir de la siguiente forma:
(**)
(el término es la aproximación obtenida después de la k-ésima
iteración) este modo de escribir la iteración es la forma general de
unmétodo iterativo estacionario.
Primeramente debemos demostrar que el problema lineal que queremos
resolver se puede representar en la forma (**), para este motivo debemos
tratar de escribir la matriz A como la suma de una matriz triangular inferior,
una diagonal y una triangular superior A=D(L+I+U),D=diag( ). Haciendo
los despejes necesarios escribimos el método de esta forma
por lo tanto B=-(L+I)-1 U.
Ahora podemos ver que la relación entre los errores, el cuál se puede
calcular al substraer x=Bx+c de (**)
Supongamos ahora que , i= 1, ..., n, son los valores propios
que corresponden a los vectores propios ui, i= 1,..., n, los cuales
son linealmente independientes, entonces podemos escribir el
error inicial
(***)
Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1,
..., n. De este hecho se desprende el siguiente teorema:
Teorema: Una condición suficiente y necesaria para que un método iterativo
estacionario converja para una aproximación arbitraria
x^{(0)} es que
donde ρ(B) es el radio espectral de B.
EXPLICACION
Se elige una aproximación inicial para .
Se calculan las matrices M y el vector c con las fórmulas mencionadas. El
proceso se repite hasta que xk sea lo suficientemente cercano axk − 1, donde k
representa el número de pasos en la iteración.
CÓDIGO FORTRAN MULTIPLICACIÓN DE MATRICES
CODIGO FORTRAN ELIMINACION GAUSSIANA
CODIGO FORTRAN GAUS JORDAN
CODIGO FORTRAN TRASPUESTA
BIBLIOGRAFÍA
ALGEBRA LINEAL 6TA EDICION DE STANLEY GROSSMAN.
HTTP://THALES.CICA.ES/RD/RECURSOS/RD99/ED99-0289-02/ED99-
0289-02.HTML
HTTP://ES.WIKIPEDIA.ORG/WIKI/MATRIZ_TRASPUESTA_CONJUGA
DA
ALGEBRA LINEAL Y SUS APLICACIONES - DAVID C. LAY
MATRICES Y DETERMINANTES
HTTP://KAMBRY.WIKISPACES.COM/MATRICES+Y+DETERMINANTE
S?F=PRINT