msa para final
TRANSCRIPT
Los métodos numéricos son metodologías que utilizan técnicas meramente algebraicas y aritméticas para resolver de forma aproximada ecuaciones o sistemas de ecuaciones complejos, que analíticamente resultan muy difíciles e incluso imposibles de resolver. Para el caso de aplicaciones de ingeniería sirven exactamente para lo mismo: resolver modelos analíticamente complejos mediante la aplicación de técnicas matemáticas básicas (estas técnicas numéricas, son las bases para la solución y simulación de problemas complejos utilizando computadoras). En esta guía se verán algunos métodos que son los que se utilizan para la carrera de Ingeniería Química.
Matemática Superior AplicadaResumen de Teoría
Y complementos de ejercicios
Maximiliano Armoa
AÑO 2015
pág.
Introducción................................................................................................................1Teorema de Taylor......................................................................................................2
Los Coeficientes de un polinomio en términos de sus derivadas............................5Errores.........................................................................................................................8
Definiciones............................................................................................................8Sistemas de numeración..........................................................................................8Error en una función................................................................................................9
Grafos........................................................................................................................11Grafo Suma...........................................................................................................11Grafo Resta............................................................................................................12Grafo Multiplicación.............................................................................................12Grafo División.......................................................................................................13Grafo Operación....................................................................................................14
Interpolación.............................................................................................................16Definición..............................................................................................................16Interpolación lineal y polinomio interpolador de Lagrange..................................16
Términos de cota de error..................................................................................18Polinomio Interpolador de Newton.......................................................................18
Método de diferencias divididas.......................................................................19Cota de Error.................................................................................................20
Mínimos Cuadrados..............................................................................................20Ajuste Lineal.....................................................................................................21Ajuste Polinomial..............................................................................................23
Forma Matricial de resolución para ajuste....................................................24Linealización de datos – Cambios de variable que linealizan datos.................26Ajuste de una función a una función.................................................................27Ajuste de puntos a una combinación de funciones...........................................30
Interpolación por Splines – Interpolación polinomial a trozos.............................32Sistemas de Ecuaciones Lineales..............................................................................34
Introducción..........................................................................................................34Tipos de Sistema...................................................................................................35Métodos para resolver sistemas de ecuaciones lineales........................................35
Eliminación Gaussiana y pivoteo – sustitución regresiva.................................36Factorización triangular.....................................................................................37
Método Jacobi...................................................................................................37Método Gauss - Seidel......................................................................................39
Determinación de convergencia de ambos métodos de iteración.................40Obtención de las matrices de Jacobi y Gauss Seidel.................................40
SOR (Successive Over Relaxation) - Sobrerelajación..................................41Refinamiento iterativo...................................................................................42
Integración numérica.................................................................................................44Definición..............................................................................................................44Grados de precisión...............................................................................................45
Fórmula de cuadratura cerrada de Newton - Cotes...........................................46Precisión de las fórmulas de Newton - Cotes................................................46
Fórmulas de cuadratura cerrada de Newton- Cotes..........................................48Reglas de Trapecios y Simpson con sus respectivos errores........................48
Regla de Trapecios....................................................................................48Regla de Simpson......................................................................................50Regla de 38 de Simpson y Boole..............................................................52Reglas compuestas....................................................................................55Análisis de error para la regla compuesta de trapecios y Simpson...........56
Cuadratura de Gauss – Legendre. Cuadratura Gaussiana.............................60Ecuaciones Diferenciales..........................................................................................63
Condición de Lipschitz..........................................................................................63Método de Euler....................................................................................................64
Descripción geométrica.....................................................................................65
Introducción
Este es un resumen confeccionado como guía de estudio para la materia Matemática
superior aplicada de la carrera de Ingeniería Química, está hecho con el fin de ser una
herramienta más y como un resumen de la materia para su eventual estudio. Es solo para
ayuda, no se recomienda estudiar solo de este material (aunque cada uno es libre de hacer
lo que quiera) y la idea es mejorarlo en todo momento posible para brindar una ayuda a
todos los compañeros que la cursan o cursarán.
Es una recopilación de apuntes tomados en clase, de extracciones de distintos libros
y varias fuentes de Internet.
Vuelvo a repetirlo para que quede claro, es un material recopilado por un estudiante
y no es un apunte de la cátedra.
Espero les sirva como me sirvió a mí.
Ahh me olvidaba, cualquier mejora que se le pueda hacer (que seguramente son
muchas) bienvenidas sean.
Gracias por difundirlo
Armoa Maximiliano
pág.
Teorema de Taylor
Sabemos que la recta tangente, como la mejor aproximación lineal a la gráfica de f
en las cercanías del punto de tangencia (xo, f (xo)), es aquella recta que pasa por el
mencionado punto y tiene la misma pendiente que la curva en ese punto (primera derivada
en el punto), lo que hace que la recta tangente y la curva sean prácticamente indistinguibles
en las cercanías del punto de tangencia. Gráficamente podemos observar que la curva se
pega "suavemente" a la recta en este entorno, de tal manera que "de todas las rectas que
pasan por el punto, es esta recta la que más se parece a la curva cerca del punto".
Nótese que cerca del punto de tangencia, la curva se comporta casi linealmente,
como se puede apreciar si hacemos acercamientos a la gráfica anterior
Como observamos en los problemas de diferencial, si x se encuentra "lejos" de xo, la
recta tangente ya no funciona como aproximador. Parece pues natural preguntarnos por otra
función (no lineal) que sirva a nuestros propósitos. La recta tangente es un polinomio de
grado 1, el más sencillo tipo de función que podemos encontrar, por lo que podemos tratar
de ver si es posible encontrar un polinomio de grado dos que nos sirva para aproximar
nuestra función en un rango más grande que la recta tangente.
Veamos que sucede si en lugar de aproximarnos con una recta tratamos de hacerlo
con una parábola, es decir tratemos de encontrar de todas las parábolas que pasan por (xo, f
(xo)), la que mejor aproxima a la curva, es decir tratemos de encontrar "la parábola
tangente". Nótese que la parábola tangente a una curva no es única.
Naturalmente a esta parábola P ( x )=a+b ( x−x0 )+c ( x−x0 )2 debemos pedirle que
pase por el punto, que tenga la misma inclinación (primera derivada) y la misma
concavidad que la parábola (segunda derivada), es decir debemos pedirle:
P ( x0 )= f ( x0 )
P ´ ( x0 )=f ´ ( x0 )
P ´ ´ ( x0 )=f ´ ´ ( x0 )
Como:
P ( x0 )=a
P ´ ( x0 )=b
P ´ ´ ( x0 )=2 c
Se concluye que:
a=f ( x0 )
b=f ´ ( x0 )
c=12
f ´ ´ ( x0 )
Quedando la ecuación de la parábola que mejor aproxima a la curva en las cercanías
de (xo, f (xo)), como:
P ( x )=f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12
f ´ ´ ( x0 ) ( x−x0 )2
En la figura de abajo, observamos gráficamente los tres sumandos de la expresión
de la parábola tangente. Los dos primeros nos dan la altura sobre la recta tangente y
añadiéndole el tercero nos da la altura sobre la parábola tangente.
Verifiquemos lo anterior en el caso particular de la función f ( x )=ex, xo = 0 y
valores de x cercanos a 0.
En la tabla de abajo observamos que la parábola tangente a la gráfica de f en (0,1)
efectivamente es una mejor aproximación para f que la recta tangente, para valores
cercanos a 0.
x 1+x1+x+ x2
2ex
1,0 2 2,5 2,718281828
0,5 1,5 1,625 1,6487212707
0,3 1,3 1,345 1,34985880757
0,1 1,1 1,105 1,10517091807
0,01 1,01 1,01005 1,010050167
0,001 1,001 1,0010005 1,00100050016
Los Coeficientes de un polinomio en términos de sus derivadas
Un polinomio de grado n está completamente determinado por sus (n+1)
coeficientes.
P ( x )=a0+a1 ( x−x0 )+a2 ( x−x0 )2+a3 ( x−x0 )3+…+an ( x−x0 )n
En lo sucesivo, expresaremos al polinomio en potencias de (x - xo) y encontraremos
sus coeficientes en términos de las derivadas evaluadas en xo.
P ´ ( x )=a1+2a2 ( x−x0 )+3 a3 ( x−x0 )2+4 a4 ( x−x0 )3+…+nan ( x−x0 )n−1
P ´ ´ (x )=a2+(2)(3)a3 ( x−x0 )+(3)(4)a3 ( x−x0 )2+(4)(5)a4 ( x−x0 )3+…+(n)(n−1)an ( x−x0 )n−2
P ´ ´´ (x )=(2)(3)a3+(2)(3)(4 )a4 ( x−x0 )+(3)(4)(5)a5 ( x−x0 )2+…+(n)(n−1)(n−2)an ( x−x0 )n−3
…
Pn ( x )=(1 ) (2 ) (3 ) … (n ) an=n !an
De donde, evaluando cada una de estas derivadas en xo, obtenemos los coeficientes
del polinomio:
a0=P ( x0 )
a1=P´ (x0)
a2=P ´ ´ (x0)
2!
a3=P ´ ´ ´ (x0)
3!
an=Pn(x0)
n !
Y en consecuencia la expresión del polinomio será:
P ( x )=P ( x0 )+P ´ ( x0 ) ( x−x0 )+P´ ´ ( x0 )
2 ! ( x−x0 )2+…+Pn ( x0 )
n ! ( x−x0 )n( I )
Volviendo a la representación (I), si f no es un polinomio, obviamente no podrá
representarse de la misma manera, sin embargo en vista de que para, la recta tangente, que
es un polinomio de grado 1, se cumple que para x cercano a xo:
f ( x )≅ f ( x0 )+ f ´ ( x0 ) ( x−x0 )
y gráficamente observamos que para x cercano a xo, la función es muy parecida a su
"parábola tangente", es decir:
f ( x )≅ f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12
f ´ ´ ( x0 ) ( x−x0 )2
surge de manera natural preguntarnos si para valores cercanos a xo, se cumplirá:
f ( x )≅ f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12
f ´ ´ ( x0 ) ( x−x0 )2+…+ 1n!
f n ( x0 ) ( x−x0 )n
Entonces el polinomio:
P ( x )=f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12
f ´ ´ ( x0 ) ( x−x0 )2+…+ 1n!
f n ( x0 ) ( x−x0 )n
Lo llamaremos el POLINOMIO DE TAYLOR de grado n para f, en el punto
xo.
El Teorema de Taylor que a continuación enunciaremos sin demostración, nos dice
que bajo ciertas condiciones, una función puede ser expresarse como un polinomio de
Taylor más un cierto error, es decir:
f ( x )=P ( x )+E(x )
y además nos dirá como estimar este error.
TEOREMA DE TAYLOR. Sea f continua en [a, b] y con derivadas hasta de orden n
continúas también en este intervalo cerrado; supóngase que f n+1(x ) existe en (a,b), entonces
para x y xo perteneciente a (a,b) se tiene:
P ( x )=f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12
f ´ ´ ( x0 ) ( x−x0 )2+…+ 1n!
f n ( x0 ) ( x−x0 )n
Donde:
En ( x )= f n+1 (c )(n+1 ) ! ( x−x0 )n+1
C es un punto que se encuentra entre x y x0.
Errores
Definiciones
Error absoluto:
ε=|a−am|Error Relativo:
ε r=|a−am|
a
Como podemos notar, el error absoluto tiene unidad y el relativo carece de ella.
Además la magnitud del error relativo es independiente de la magnitud medida.
Sistemas de numeración
Diremos que un número xo es una aproximación a x con d cifras decimales
significativas si d es el mayor número natural tal que
Error por redondeo
|a−am||a|
< b−d
2
Error por truncamiento
|a−am|<b−d
Punto flotante: los números se escriben con mantisa y exponente.
a=M∗bE
b−1≤|M|≤1
Ejemplo: 1234,45678 = 0,12345678 * 104. Notemos que 10-1 ≤ |0.12345678| ≤ 1
Volviendo al error absoluto, con redondeo:
ε=|x−x0|< b−m∗bE
2
Dividiendo por |x|
|x−x0||x|
< b−m∗bE
2|x|=b−m∗bE
2|M|bE = b−m
2|M|
Como: b−1≤|M|≤1, el máximo error se comete cuando |M| toma el valor más
chico:
|x−x0||x|
< b−m∗bE
2|x|=b−m∗bE
2|M|bE = b−m
2|M|≤ b−m∗b2
Error de precisión de Máquina=b−m∗b2
Para una computadora que trabaja con 8 bytes, m = 16
Con lo anterior deducimos que el error absoluto (sabiendo que d son decimales
significativos).
10−d
2
Con error relativo (con t cantidad de dígitos significativos)
101−t
2
Error en una función
f ( x+∆ x )=f ( x )+ f ´ ( x )∗∆ x+O(∆ x )2
f ( x+∆ x )−f ( x )=f ´ ( x )∗∆ x
∆ f =f ´∗∆ x
∆ ff
= f ´f
∗∆ x
∆ ff
= f ´f
∗∆ x∗xx
∆ ff
=
f ´f
∗∆ x
x∗x
ε f =f ´f
∗ε x∗x
ε f =f ´f
∗x∗εx
f ´f
∗x=FAX (Factor de amplificaciónde X)
ε f =FAX∗ε x
El FAX indica como varía su función en relación a su derivada y se puede prolongar
para varias variables.
Por ejemplo, sea f =f (x , y , z)
ε f =FAX∗ε x+FAY∗ε y+FAZ∗εz
Grafos
Un grafo es un conjunto de objetos (llamados vértices o nodos) unidos por enlaces
(llamados aristas o arcos) que permiten representar relaciones binarias entre elementos de
un conjunto. Permiten estudiar las interrelaciones entre unidades que interactúan unas con
otras.
El mecanismo del grafo consiste, al igual que el diagrama de árbol, en recorrer el
camino y multiplicando las líneas de cada camino. Luego se suman todos los caminos y no
se debe olvidar sumar al final el error de operación.
Grafo Suma
Operación: f ( X ,Y )=X+Y
X Y
FAX FAY
+
Ex Ey
ESUMA
ε f =ε x∗FAX+ε y∗FAY +ε Suma
FAX=f ´ x
f∗x= 1
X+Y∗X
FAY =f ´ y
f∗y= 1
X+Y∗Y
ε f =εx∗XX+Y
+ε y∗YX+Y
+ε Suma
Grafo Resta
Operación: f ( X ,Y )=X−Y
X Y
FAX FAY
-
Ex Ey
ERESTA
ε f =ε x∗FAX+ε y∗FAY +ε Resta
FAX=f ´ x
f∗x= 1
X−Y∗X
FAY =f ´ y
f∗y= −1
X−Y∗Y
ε f =ε x∗XX−Y
+ε y∗−YX−Y
+ε Resta
Grafo Multiplicación
Operación: f ( X ,Y )=X∗Y
X Y
FAX FAY
*
Ex Ey
EMULTIPLICACION
ε f =ε x∗FAX+ε y∗FAY +ε Multiplicación
FAX=f ´ x
f∗x= Y
XY∗X=1
FAY =f ´ y
f∗y= X
XY∗Y =1
ε f =ε x+ε y+ε Multiplicación
Grafo División
Operación: f ( X ,Y )= XY
X Y
FAX FAY
/
Ex Ey
EDIVISION
ε f =ε x∗FAX+ε y∗FAY +ε División
FAX=f ´ x
f∗x=
1YXY
∗X=1
FAY =f ´ y
f∗y=
−XY 2
XY
∗Y=−1
ε f =ε x−ε y+εDivisión
Grafo Operación
Operación: f ( X ,Y )=f ( X ,Y )
X Y
FAX FAY
f(x,y)
Ex Ey
EOPERACION
ε f =ε x∗FAX+ε y∗FAY +εOperación
FAX=f ´ x
f∗x
FAY =f ´ y
f∗y
ε f =ε x∗¿f ´ x
f∗x+
ε y∗f ´ y
f∗ y+εOperación
En base a lo anterior: se obtiene la siguiente tabla:
Operación FAX FAY
Operación Generalf ´ x
f∗x
f ´ y
f∗y
SumaX
X−YY
X−Y
RestaX
X−Y−Y
X−Y
Multiplicación 1 1
División 1 -1
Vale aclarar que en cada función (cada operación) tenemos:
La función
El error de la Función
El error de la Operación
A los errores de datos los acotamos con i y a los errores de operación con μ.
(hay que tener en cuenta que esto es la posición de decimales que plantee el
problema o bien dicho las cifras significativas)
Todo lo que está multiplicando a i se lo llama condición del problema, el termino
que multiplica a μ (termino de estabilidad) depende del grafo utilizado.
Un algoritmo se dice numéricamente más estable que otro si su término de
estabilidad es menor.
Se puede definir un algoritmo estable si:
COND+ESTABCOND
≫1
Interpolación
Definición
Se denomina interpolación a la obtención de nuevos puntos partiendo del
conocimiento de un conjunto discreto de puntos.
En ingeniería es frecuente disponer de un cierto número de puntos obtenidos por
muestreo o a partir de un experimento y pretender construir una función que los ajuste.
En todo caso, se trata de, a partir de n parejas de puntos (xk,yk), obtener una
función f que verifique que:
f ( xk )= yk k=1 ,2 ,…,n
A la que se denomina función interpolante de dichos puntos. A los puntos xk se les
llama nodos.
En esta unidad se verán los métodos de mínimos cuadrados, Lagrange, Newton y
splines.
Interpolación lineal y polinomio interpolador de Lagrange
En esta interpolación se utiliza un segmento rectilíneo que pasa por dos puntos que
se conocen. La pendiente de la recta que pasa por esos dos puntos es:
m=y1− y0
x1−x0
Para calcular un punto intermedio, basta con reemplazar el valor de x en la
ecuación:
y=P ( x )= y0+( x−x0 )∗y1− y0
x1−x0
y=P ( x )= y0+( y1− y0 )∗x−x0
x1−x0
Aplicando Distributiva:
y=P ( x )= y0+y1∗x−x0
x1−x0−
y0∗x−x0
x1−x0
Sacando factor común y0
y=P ( x )= y0(1−x−x0
x1−x0)+ y1∗x−x0
x1−x0
y=P ( x )= y0( x1−x0−x+x0
x1− x0)+ y1∗x−x0
x1−x0
y=P ( x )= y0( x1−xx1−x0
)+ y1∗x−x0
x1−x0
y=P ( x )= y0( x−x1
x0−x1)+ y1∗x−x0
x1−x0
Los términos que multiplican a las yk se llaman polinomios coeficientes de
Lagrange:
L1,0 ( x )=x−x1
x0−x1L1,1 ( x )=
x−x0
x1−x0
Por lo general la fórmula para interpolación para polinomios lineales se expresa:
P1 (x )=∑k=0
n
yk∗L1 , k ( x )
Observamos que para definir una función lineal (polinomio de grado 1) se necesitan
dos puntos (k = 0 y k = 1), de modo similar, para una cuadrática se necesitan tres puntos (k
= 0, k = 1 y k = 2). Se necesitan n+1 puntos para obtener un polinomio de grado n.
Para calcular un polinomio de grado N usamos:
P1 (x )=∑k=0
n
yk∗LN , k ( x )
De donde:
LN ,k ( x )=( x−x0 ) ( x−x1 ) ( x−x2 ) … ( x−xk−1 ) ( x−xk+1 ) … ( x−x N )
( xk−x0 ) ( xk−x1 ) ( xk−x2 ) … ( xk−xk−1 ) ( xk−xk +1) … ( xk−xN )
Notemos que:
En el numerador no aparece el término ( x−xk )
En el denominador no aparece el término ( xk−xk ), es decir, que no se anule.
Términos de cota de error
El término de error es similar al de Taylor:
En ( x )=∏k=0
n
( x−xk ) f n+1
(n+1 )!
Polinomio Interpolador de Newton
Este polinomio se calcula mediante un esquema recursivo:
P1 (x )=a0+a1 ( x−x0 )
P2 (x )=a0+a1 ( x−x0 )+a2 ( x−x0 ) ( x−x1 )
P3 ( x)=a0+a1 ( x−x0 )+a2 ( x−x0 ) ( x−x1 )+a3 ( x−x0) ( x− x1 ) ( x−x2 )
Pn ( x )=a0+a1 ( x− x0 )+a2 ( x−x0 ) ( x−x1 )+…+an ( x−x0 ) ( x−x1 ) …( x−xn−1)
Método de diferencias divididas
Este método sirve para calcular los coeficientes del polinomio interpolador de
Newton. Debemos calcular las siguientes generalidades:
f [ xk ]= f (xk )
f [ xk−1 ; xk ]=f ( xk )−f ( xk−1 )
xk−xk−1
f [ xk−2 ; xk−1 ; xk ]=f [ xk−1; xk ]−f [ xk−2 ; xk−1 ]
xk−xk−2
f [ xk−3 ; xk−2; xk−1; xk ]=f [ xk−2 ;xk−1 ; xk ]−f [ xk−3 ;xk −2 ; xk−1; xk ]
xk−xk−3
Para ello, vamos a construir una tabla de diferencias divididas:
xk f ( xk )= yk f [ xk−1 ; xk ] f [ xk−2 ; xk−1 ; xk ] f [ xk−3 ; xk−2; xk−1; xk ]x0 y0
x1 y1 f [ x0 ; x1 ]x2 y2 f [ x1 ;x2 ] f [ x0 ; x1 ; x2 ]x3 y3 f [ x3 ; x2 ] f [ x1 ;x2 ; x3 ] f [ x0 ; x1 ; x2; x3 ]
Escrito con las fórmulas:
xk f ( xk )= yk f [ xk−1 ; xk ] f [ xk−2 ; xk−1 ; xk ] f [ xk−3 ; xk−2; xk−1; xk ]x0 y0
x1 y1y1− y0
x1−x0(a)
x2 y2y2− y1
x2−x1(b)
b−ax2−x0
(d )
x3 y3y3− y2
x3−x2(c)
c−bx3−x1
(e) e−fx3−x0
Coeficientes del Polinomio de Newton
Una vez completado el cuadro, los números que quedan en la diagonal principal son
los coeficientes del polinomio interpolador de Newton.
Cota de Error
Es igual que el término de Lagrange:
En ( x )=∏k=0
n
( x−xk )∗f n+1
(n+1 ) !
Mínimos Cuadrados
En su forma más simple, intenta minimizar la suma de los cuadrados de las
diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los
correspondientes en los datos.
El método de resolución se basa en resolver un sistema de ecuaciones dado un
conjunto de n puntos.
Si ajustamos para una función y = f (x), entonces la distancia vertical dk desde el
punto (xk, yk) hasta el punto (xk, f(xk)) es:
dk=|f (xk)− yk|
El objetivo es minimizar la suma de los cuadrados de las distancias verticales dk:
E ( A ,B , …, N )=∑k=1
n
(f ( xk)− y k)2=∑k=1
n
(d k)2
El valor mínimo de la función E se determina igualando a cero las derivadas
parciales ∂ E∂ A
; ∂ E∂ B
;…; ∂ E∂ N y resolviendo las ecuaciones que resulten en A, B y todas las
constantes.
El resultado de esta operación es un conjunto de ecuaciones para resolver la cual su
resolución nos da el valor de cada constante de la expresión de ajuste adoptada.
El tipo de ajuste que vamos a utilizar estará dado por distribución de puntos y la
relación que encontremos entre ellos en el gráfico.
Ajuste Lineal
Tenemos como función de ajuste a una función lineal y=Ax+B
La función distancia que encontramos será de esta manera:
dk=A xk+B− yk
Sumando la distancia de cada punto elevada al cuadrado obtenemos:
E ( A , B )=∑k=1
n
dk2=∑
k=1
n
( A xk+B− yk )2
Derivando con respecto a A:
∂ E ( A ,B )∂ A
=∑k=1
n
2 ( A xk+B− yk )∗xk
∂ E ( A ,B )∂ A
=2∑k=1
n
( A xk2+B xk− yk xk )
Con respecto a B:
∂ E ( A , B )∂ B
=∑k=1
n
2 ( A xk+B− yk )
∂ E ( A , B )∂ B
=2∑k=1
n
( A xk+B− yk )
Igualando cada derivada a cero obtenemos:
∂ E ( A ,B )∂ A
=2∑k=1
n
( A xk2+B xk− yk xk )=0
∑k =1
n
( A xk2+B xk− yk xk )=0
∑k =1
n
A xk2+∑
k=1
n
B xk−∑k=1
n
yk xk=0
A∑k=1
n
xk2+B∑
k =1
n
xk=∑k=1
n
yk xk(1)
∂ E ( A , B )∂ B
=2∑k=1
n
( A xk+B− yk )=0
∑k =1
n
( A xk+B− yk )=0
∑k =1
n
A xk+∑k=1
n
B−∑k=1
n
yk=0
A∑k=1
n
xk+B∑k =1
n
xk=∑k=1
n
yk (2)
Se debe plantear:
{A∑k=1
n
xk2+B∑
k=1
n
xk=∑k=1
n
yk xk
A∑k =1
n
xk+B∑k=1
n
xk=∑k=1
n
yk
Para el cual es conveniente realizar una tabla como la que se muestra a continuación
Nº de puntos xk yk xk2 xkyk
1 X1 Y1 (X1)2 X1Y1
2 X2 Y2 (X2)2 X2Y2
3 X3 Y3 (X3)2 X3Y3
… … … … …
N Xn Yn (Xn)2 XnYn
Total Σ xk Σ yk Σ xk2 Σ xk * yk
Resolviendo el sistema encontramos los coeficientes a y b correspondientes a la
ecuación y = A x + B.
Ajuste Polinomial
Para esta secuencia, el objetivo es el mismo teniendo en cuenta que la función
modelo será:
f ( xk )=A0+ A1 xk1+ A2 xk
2+…+ Am xkm=∑
i=0
m
Ai xki
De donde Ai son los coeficientes del polinomio de ajuste. Con esta expresión,
podemos decir:
dk=|f ( xk )− yk|
E ( A0 , A1 , …, Am )=∑k=1
n
( dk )2=∑k=1
n
( f ( xk )− yk )2
E ( A0 , A1 , …, Am )=∑k=1
n
( dk )2=∑k=1
n
(∑i=0
m
Ai xki − yk )
2
Como el objetivo es que los coeficientes minimicen la función, debemos derivar
esta expresión con respecto a cada coeficiente e igualarlo a cero.
∂ E∂ A i )A j
=2∑k=1
n
( A0+ A1 xk1+ A2 xk
2+…+ Am xkm− yk )∗xk
i =0
∑k =1
n
( A0 xki + A1 xk
1+i+ A2 xk2+i+…+ Am xk
m+ i− yk xki )=0
∑k =1
n
A0 xki +∑
k=1
n
A1 xk1+i+∑
k=1
n
A2 xk2+i+…+∑
k=1
n
Am xkm+ i=∑
k=1
n
yk xki
A0∑k=1
n
xki +A1∑
k=1
n
xk1+i+ A2∑
k =1
n
xk2+ i+…+Am∑
k=1
n
xkm+i=∑
k=1
n
yk xki
Esta expresión la tenemos m veces correspondientes a las m derivadas parciales de
cada constante, dándonos un sistema de ecuaciones lineales (de m ecuaciones con m
incógnitas) para resolver el cual su respuesta nos indica los coeficientes del polinomio de
ajuste.
NOTA: si los datos no muestran una naturaleza polinomial, puede ocurrir que la
curva presente oscilaciones grandes. Este fenómeno llamado oscilación polinomial se hace
más pronunciado conforme aumenta el grado del polinomio, y por esta razón, no se suelen
usar polinomios de grado 6 o mayor, a no ser que se sepa que la función de la que
provienen los datos es un polinomio.
Forma Matricial de resolución para ajuste
Nuestro objetivo es encontrar el valor de los Ai. Para ello, vamos a armar la matriz F
dela siguiente manera:
Ubicamos de forma matricial los coeficientes de cada A i y los disponemos
de la siguiente manera:
…1 …
1 …
F= 1 …
… … … … …
1 …
Coeficientes de Ai
Ao A1 A2 Am
X1 X12 X1
m
Puntos
X2 X22 X2
m
X3 X32 X3
m
Xn Xn2 X1
m
Notemos que:
La primer columna son los coeficientes del término independiente por lo
tanto está multiplicada por 1
La segunda columna son los términos lineales, por lo que están
multiplicados por x
La tercera por x2
La cuarta por x3
Así hasta el polinomio de grado m.
Una vez escrita la matriz F podemos obtener su transpuesta:
1 1 1 … 1
…
…
… … … … …
…
Puntos
X1 X2 X3 Xn
Ft= X12 X2
2 X32 Xn
2
X1m X2
m X3m Xn
m
De estas dos matrices obtenemos lo siguiente:
A=Ft∗F
B=F t∗Y
Y es la matriz columna de los yk dela nube de puntos
Una vez obtenidas ambas matrices, la expresión matricial queda definida de la
siguiente manera:
A∗C=B
De donde C es la matriz de coeficientes, sabemos que en este caso esta matriz es
una matriz fila.
Linealización de datos – Cambios de variable que linealizan datos
La técnica de linealizar los datos ha sido empleada para ajustar curvas tales como
y=C eAX , y=A ln(x)+B e y= Ax
+B a un conjunto de datos. Una vez elegido el tipo de
curva, hay que realizar un cambio de variable adecuado de manera que las nuevas variables
se relacionen linealmente Y=AX +B usando el cambio de variables y constantes.
Función Linealización Cambios de Variable
y=f ( x ) Y=AX +B
y=ax+b y=a 1
x+b y=Y ; 1
x=X
b=B ;a=A
y= ax+b
y=−1b
( xy )+ ab
y=Y ;xy=X
A=−1b
;B=ab
y= 1ax+b
1y=ax+b
1y=Y ; x=X
a=A ;b=B
y= xax+b
1y=b 1
x+a
1y=Y ; 1
x=X
a=B ;b=A
y=a ln(x )+b y=a ln (x )+b y=Y ; ln (x)=Xa=A ;b=B
y=aebx ln ( y)=bx+ ln (a) ln( y)=Y ; x=Xln (a)=B ;b=A
y=a xb ln ( y)=b ln(x )+ ln(a) ln ( y)=Y ; ln(x)=Xln (a)=B ;b=A
y= (ax+b )−2y
−12 =ax+b y
−12 =Y ; x=X
a=A ;b=B
y=ax e−bx ln ( yx )=ln (a)−bx ln( y
x )=Y ; x=X
−b=A ; ln (a)=B
y= L1+a ebx ln (L
y−1)=bx+ ln(a)
ln ( Ly−1)=Y ; x=X
b=A ; ln(a)=B
Ajuste de una función a una función
Se quiere encontrar una función que se ajuste por algún criterio a la función dato.
Las razones por las cuales se quiere aproximar una función a otra puede ser:
Trabajar con una función más sencilla
Realizar cálculos sobre la función encontrada: Integración, Evaluaciones,
etc.
Se planteará una función como combinación lineal de un conjunto de funciones
base1.
Como objetivo tendremos minimizar el cuadrado del área encerrada por las dos
funciones.
La cantidad de funciones base en general puede variar de 1 a 10
Dada una función ϕ(x) y un conjunto de M funciones linealmente independientes
{ f j ( x ) } el objetivo es encontrar M coeficientes {c j } tales que la función ϕ(x) definida como la
combinación lineal:
ϕ ( x )=∑j=1
M
c j∗f j ( x )
Minimice el área de los cuadrados de los errores con respecto a f(x), es decir:
E (c1 , c2 , …, cm )=∫a
b
( dk )2 dx=∫a
b
(ϕ ( x )−f ( x ) )2 dx=∫a
b
((∑j=1
M
c j∗f j ( x ))− f ( x ))2
dx
Para que E alcance un mínimo en un punto, es necesario que cada derivada parcial
en dicho punto sea cero:
∂ E∂ c i )c j
=2∫a
b
((∑j=1
M
c j∗f j ( x ))−f ( x ))∗f i ( x ) dx=0
∫a
b
((∑j=1
M
c j∗f j ( x ))− f (x ))∗f i (x ) dx=0
Realizando distributiva:
∫a
b
(∑j=1
M
c j∗f j ( x ) f i ( x ))− f ( x ) f i ( x )dx=0
1 Las funciones base son un conjunto de funciones linealmente independientes.
∫a
b
(∑j=1
M
c j∗f j ( x ) f i ( x ))dx−∫a
b
f ( x ) f i (x ) dx=0
∫a
b
(∑j=1
M
c j∗f j ( x ) f i ( x ))dx=∫a
b
f ( x ) f i (x ) dx
Intercambiando el orden de la suma y la integral y sacando cj fuera de la suma
interna:
∑j=1
M
c j∫a
b
f j ( x ) f i ( x ) dx=∫a
b
f ( x ) f i ( x ) dx
Obtenemos un sistema de ecuaciones lineales de orden M x M en el que las
incógnitas son los coeficientes cj, estas ecuaciones reciben el nombre de ecuaciones
normales o ecuaciones normales de Gauss.
Observemos que el sistema se puede escribir:
A∗c=B
De donde:
A es la matriz de coeficientes en donde: Aij=∫a
b
f j ( x ) f i (x ) dx
C es la matriz de coeficientes a calcular.
B es la matriz de términos independientes: Bi=∫a
b
f (x ) f i ( x ) dx
Una observación importante es analizar lo que sucede en el caso de tener un ajuste
cuyas funciones bases sean ortogonales, es decir, que las integrales cruzadas sean cero. Se
dice que un conjunto de funciones {ϕn ,}n=0∞ es ortogonal en el intervalo [ a , b ] si:
⟨ ϕn , ϕm ⟩=∫a
b
ϕn ( x ) ϕm ( x )dx=0 ,m≠ n
En este caso la matriz de coeficientes del sistema de ecuaciones resultante queda
diagonal, con el consecuente desacoplamiento de las ecuaciones.
Aij=∫a
b
f j ( x ) f i (x ) dx {¿0 si i≠ j≠ 0 si i= j
Entonces, el cálculo de los coeficientes de ajustes para una base de funciones
ortogonales resulta muy sencillo
c i=b i
Aij=∫
a
b
f ( x ) f i ( x ) dx
∫a
b
f j ( x ) f i (x ) dx
Ajuste de puntos a una combinación de funciones
Se puede hacer el mismo análisis para un conjunto N de puntos {( xk , yk )} y un
conjunto de M funciones linealmente independientes {f j ( xk )}, se trata de encontrar M
coeficientes {c j } tales que la función f(x) definida como combinación lineal
f ( x )=∑j=1
M
c j f j ( xk )
Minimice la suma de los cuadrados de los errores:
E (c1 , c2 , …, cm )=∑k=1
n
( dk )2=∑k=1
n ((∑j=1
M
c j f j ( xk))− yk)2
Para que E alcance un mínimo en un punto dado, es necesario que cada derivada
parcial en dicho punto sea cero.
∂ E∂ c i )c j
=2∑k =1
n ((∑j=1
M
c j f j ( xk ))− yk)∗f i ( xk )=0
∑k =1
n ((∑j=1
M
c j f j ( xk ))− yk)∗f i ( xk )=0
Aplicando distributiva del producto:
∑k =1
n ((∑j=1
M
c j f j ( xk ) f i ( xk))− yk f i ( xk ))=0
Aplicando distributiva de la suma
∑k =1
n
∑j=1
M
c j f j ( xk ) f i ( xk )−¿∑k=1
n
yk f i ( xk )=0¿
∑k =1
n
∑j=1
M
c j f j ( xk ) f i ( xk )=¿∑k=1
n
yk f i ( xk )¿
Intercambiando el orden de la sumatoria:
∑j=1
M
∑k=1
n
c j f j ( xk ) f i ( xk )=∑k=1
n
yk f i ( xk )
∑j=1
M
c j∑k=1
n
f j ( xk ) f i ( xk )=∑k=1
n
yk f i ( xk )
Obtenemos un sistema de ecuaciones lineales de orden M x M en el que las
incógnitas son los coeficientes c j. Observemos que:
A es la matriz de coeficientes en donde: Aij=∑k =1
n
f j ( xk ) f i ( xk )
C es la matriz de coeficientes a calcular.
B es la matriz de términos independientes: Bi=∑k=1
n
y k f i ( xk )
Interpolación por Splines – Interpolación polinomial a trozos
Frecuentemente, la interpolación polinomial para un conjunto numeroso de m+1
datos {( xk ; yk )}k=0N resulta ser muy poco satisfactoria. Observamos que un polinomio de
grado N puede presentar oscilaciones muy grandes al hacerla pasar por los puntos dados.
Otra opción es ir enlazando, una detrás de otra las gráficas de un polinomio de grado bajo
que solo interpolan entre dos nodos consecutivos. La unión consecutiva de todos estos
polinomios nos da un polinomio a trozos.
La interpolación por splines consiste en armar varios polinomios entre los puntos (o
nodos) de manera tal de tener una “función a tramos” que, generalmente, será continua pero
no derivable. Para m+1 puntos voy a tener m curvas de splines.
Un factor a tener en cuenta es que, el grado del polinomio de splines me da una idea
de los grados de libertad que tengo para resolver el sistema, si el grado del polinomio de
cada spline es n, necesito n+1 ecuaciones para resolver todos los coeficientes de cada
spline.
Analizando lo anterior, n+1 ecuaciones por cada spline y m curvas de spline
necesito (n+1 )∗m ecuaciones ya que este número es la cantidad de incógnitas que tengo.
Por ejemplo, si tengo 5 puntos tengo que armar 4 splines, y si cada spline es cúbica,
tengo 4 incógnitas por cada spline. Por consiguiente necesito 4*4 = 16 ecuaciones para
encontrar todos los coeficientes.
Vamos a armar las ecuaciones de cada una:
1. Si analizamos por continuidad, conozco dos puntos por cada spline (serían los
extremos de cada una) por lo que puedo formar 2*m ecuaciones.
2. Podemos obtener más ecuaciones si planteamos la continuidad en la derivada
primera (las derivadas primeras en los puntos interiores son iguales). Este planteo
me da m-1 ecuaciones ya que en los extremos no puedo calcular la continuidad
(que equivalen a dos puntos = 1 spline menos)
3. En caso de que nos sigan faltando ecuaciones, planteamos continuidad en la
derivada segunda (menos en extremos) y seguimos así hasta obtener todas las
ecuaciones necesarias.
Una vez obtenidas todas las ecuaciones, armamos el sistema de ecuaciones lineales
de forma matricial (para facilitar cuentas) y resolvemos el sistema.
Notemos que el sistema de ecuaciones lineales que es generalmente grande (de
grandes dimensiones).
Ejemplo gráfico
Sistemas de Ecuaciones Lineales
Introducción
Un Sistema de ecuaciones lineales es un conjunto de ecuaciones lineales (de grado
1) definidas sobre un cuerpo o un anillo conmutativo.
{ 3 x1+2 x2+ x3=12 x1+2 x2+4 x3=−2
−x1+12
x2−x3=0
El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y
x3 que satisfacen las tres ecuaciones.
En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en
forma normal como:
{ a11 x1+a12 x2+…+a1n xn=b1
a21 x1+a22 x2+…+a2n xn=b2
……………… …………………=…am1 x1+am2 x2+…+amn xn=bm
Donde los x1; x2; …; xn son las incógnitas y los números a ij∈K son los coeficientes
del sistema sobre el cuerpo K [¿R ,C ,… ] es posible reescribir el sistema separado con
coeficientes de notación matricial:
[ a11 a12 … a1n
a21 a22 … a2n
… … … …am1 am2 … amn
]∗[ x1
x2
…xn
]=[b1
b2
…bn
]O bien:
A∗X=B
Donde A es una matriz m por n, X es un vector columna de longitud n y b es otro
vector columna de longitud m.
A∗X=B(mxn )∗(nx1 )=(mx 1)
Tipos de Sistema
Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que
pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:
Sistema incompatible si no tiene solución.
Sistema compatible si tiene solución, en este caso además puede distinguirse entre:
o Sistema compatible determinado cuando tiene una única solución.
o Sistema compatible indeterminado cuando admite un conjunto infinito de
soluciones.
Quedando así la clasificación:
Tipos de sistemas {Compatible { DeterminadoIndeterminado
Incompatible
Desde un punto de vista algebraico los sistemas compatibles determinados se
caracterizan porque el determinante de la matriz es diferente de cero:
SistemaCompatible determinado❑⇔
det ( A)≠ 0
Métodos para resolver sistemas de ecuaciones lineales
Un sistema de ecuaciones lineales se puede optar resolver por dos caminos:
Método directo el cual implica demasiadas cuentas pero una solución segura. En
estos métodos encontramos el método de Gauss y sustitución regresiva y la
factorización triangular.
Métodos iterativos el cual las cuentas se reducen considerablemente pero puede que
la iteración no converja.
Eliminación Gaussiana y pivoteo – sustitución regresiva
Para poder resolver un sistema de ecuaciones lineales por eliminación gaussiana
necesitamos un sistema de N ecuaciones con N incógnitas. El objetico es construir una
matriz triangular superior para realizar una sustitución regresiva.
Una vez obtenida la matriz triangular superior despejamos de la última ecuación una
incógnita, la reemplazamos en la de arriba y despejamos la otra incógnita y así
sucesivamente hasta obtener todas las incógnitas a buscar.
Una de las formas más rápidas para la obtención de la matriz triangular superior es
el método de pivoteo, para el cual tenemos que seguir los siguientes pasos:
1. Ampliamos la matriz A agregándole como última columna la matriz de resultados.
2. Multiplicamos por algún escalar la primer fila de manera tal que el elemento a11 sea
el número 1 (esto no es necesario hacerlo, se hace para facilitar los cálculos).
Generalmente se divide toda esa fila por el pivote elegido.
3. Pivoteamos toda la diagonal principal hasta obtener la matriz triangular superior.
4. Resolvemos el sistema por sustitución regresiva.
Para reducir los errores de cálculo, una estrategia de pivoteo es usar como pivote el
elemento de mayor magnitud y, una vez colocado en la diagonal principal, usarlo para
eliminar los restantes elementos de su columna que estén por debajo de él.
Para resolver un sistema de N x N hace falta un total de (4 N 3+9N 2−7 N )6
operaciones aritméticas. Si N = 20 tenemos que utilizar 5910 operaciones y la propagación
de errores en los cálculos podría dar lugar a una respuesta incorrecta.
Factorización triangular
Para poder aplicar la factorización triangular (o factorización LU) necesitamos una
matriz invertible.
A=LU
De donde L es una matriz triangular inferior cuya diagonal son todos 1 y U una
matriz triangular superior.
Para calcular esta factorización lo que hacemos es pivotear la matriz A hasta obtener
una matriz triangular superior. Luego, para calcular L lo que hacemos es completar la
diagonal con 1 y los elementos faltantes se calculan de la siguiente manera:
Lij=1
U ij∗A ij
Este método sale de resolver la multiplicación de LU = A
a. Pivoteo A hasta obtener matriz superior (U)
b. Lij=1
U ij∗A ij, con estos valores obtenemos L
Una vez obtenidas las dos matrices podemos reemplazar el sistema A*X = B en el
sistema equivalente LU*X = B
De este sistema nuevo podemos resolverlo de la siguiente manera:
Decir que UX = Y de donde el sistema a resolver es LY = B, calculamos Y y con
estos valores calculamos X (sabiendo que Y = UX). Todo lo resolvemos por sustitución
regresiva.
Método Jacobi
Este método es utilizado para resolver los sistemas de ecuaciones lineales mucho
más rápido que por los métodos directos.
Para resolver un sistema por Jacobi necesitamos reescribir el sistema de ecuaciones
lineales.
Dado el sistema:
{ a11 x1+a12 x2+…+a1n xn=b1
a21 x1+a22 x2+…+a2n xn=b2
…………………………………=…am1 x1+am2 x2+…+amn xn=bm
Lo reescribimos de manera tal de despejar de la primera ecuación la primer
incógnita, de la segunda la segunda y así sucesivamente.
{ x1=b1−a12 x2−…−a1 n xn
a11
x2=b2−a21 x1−…−a2 n xn
a22
…=…………………………………
xn=bm−am1 x1−am2 x2−amn−1 xn−1
amn
A todas las incógnitas del lado izquierdo le ponemos el subíndice k+1 y a la de la
derecha el subíndice k.
{ ( x1)k+1=b1−a12 ( x2 )k−…−a1 n ( xn )k
a11
( x2)k+1=b2−a21 ( x1 )k−…−a2 n ( xn)k
a22
…=…………………………… ……
( xn )k+1=bm−am1 ( x1 )k−am 2 ( x2 )k−amn−1 ( xn−1)k
amn
Una vez obtenido este sistema elijo un punto cualquiera inicial (P0) y lo reemplazo
en cada Xk; esto me da un nuevo punto P1. Seguimos iterando hasta que converja en un
punto que será la solución del problema.
Si la matriz de coeficientes original es diagonalmente dominante, el método de
Jacobi converge seguro.
Una matriz se dice matriz diagonalmente dominante, si en cada uno de los
renglones, el valor absoluto del elemento de la diagonal principal es mayor que la suma de
los valores absolutos de los elementos restantes del mismo renglón. A veces la matriz de un
sistema de ecuaciones no es diagonalmente dominante pero cuando se cambian el orden de
las ecuaciones y las incógnitas el nuevo sistema puede tener matriz de coeficientes
diagonalmente dominante.
|akk|>∑j=1
n
|akj|
Método Gauss - Seidel
Este método es similar al de Jacobi, con la diferencia que se acelera la convergencia.
Observemos que en el método anterior produce sucesiones que convergen
(( x1 )k ; ( x2 )k ;…; ( xn )k ). Puesto que ( x1 )k+ 1 es probablemente mejor aproximación que ( x1 )k,
sería razonable usar ( x1 )k+ 1 en vez de ( x1 )k a la hora de calcular ( x2 )k+1 y, de forma semejante,
sería mejor usar( x1 )k+ 1 e ( x2 )k+ 1 en el cálculo de ( x3 )k +1.
{ x1=b1−a12 x2−…−a1 n xn
a11
x2=b2−a21 x1−…−a2 n xn
a22
…=…………………………………
xn=bm−am1 x1−am2 x2−amn−1 xn−1
amn
Con los subíndices:
{ ( x1)k+1=b1−a12 ( x2 )k−…−a1n ( xn )k
a11
( x2 )k+1=b2−a21 ( x1 )k+1−…−a2 n ( xn )k
a22
…=…………………………… ……
( xn )k+1=bm−am1 ( x1 )k+1−am2 ( x2 )k+1−amn−1 ( xn−1 )k +1
amn
Determinación de convergencia de ambos métodos de iteración
Dado el sistema de ecuaciones lineales AX = B, sin importar el método de iteración
que utilicemos (Jacobi o Gauss Seidel) podemos determinar de antemano si el sistema
converge o no para no hacer la iteración en vano.
Podemos tomar a la matriz de coeficientes A y descomponerla en su diagonal menos
su triangular inferior y su triangular superior.
A=D−L−U { JACOBI : A=D−(L+U )GAUSS−SEIDEL : A=( D−L )−U
Obtención de las matrices de Jacobi y Gauss Seidel
JACOBI GAUSS – SEIDEL
1) Escribimos el sistema de ecuaciones de manera matricial
A∗X=B
2) Reemplazamos la matriz A
A=D−(L+U) A=( D−L )−U
[ D− (L+U ) ]∗X=B [ ( D−L )−U ]∗X=B
3) Distribuimos el producto
DX−( L+U ) X=B ( D−L ) X−UX=B
4) Pasamos el término restando al otro miembro
DX=B+( L+U ) X ( D−L ) X=B+UX
5) Multiplicamos por la inversa de la matriz que queda multiplicando (a izquierda)
D−1 DX=D−1 B+D−1 ( L+U ) X ( D−L )−1 ( D−L ) X=( D−L )−1 B+( D−L )−1 UX
X=D−1 B+[ D−1 ( L+U ) ] X X=( D−L )−1 B+[ ( D−L )−1 U ] X
X=C j+T j X X=CG−S+T G−S X
Observemos que los términos son:
C j=D−1 BT j=D−1 ( L+U )
CG−S= (D−L )−1 BT G−S=( D−L )−1 U
Las iteraciones convergen sí y sólo sí ρ (T )<1 de donde ρ (T ) es el radio espectral de
la matriz T.
ρ (T )=máximo autovalor
Cálculo de autovalores
Para calcular los autovalores de una matriz hay que realizar los siguientes pasos:
1. A la matriz T del método restarle un λI de donde I es la matriz identidad y tiene las
mismas dimensiones que T.
T−λI
2. A esta nueva matriz le aplicamos el determinante y la igualamos a cero
|T−λI|=0
3. Resolvemos la ecuación en función de λ. Una vez obtenidos los autovalores vemos
cual es el máximo en módulo.
Corolario:
Si ‖T‖<1 para cualquier norma matricial natural, entonces la sucesión {x(k )}k=0∞ en la
ecuación x(k)=T∗x (k−1 )+C converge para cualquier vector inicial X0 a un vector X y se
satisface las siguientes cotas de error:
1¿‖x−x(k )‖≤‖T‖k∗‖x(0)−x‖
2¿‖x−x(k )‖≤ ‖T‖k
1−‖T‖∗‖x(1)−x(0)‖
SOR (Successive Over Relaxation) - Sobrerelajación
Cuando se utilizan métodos iterativos puede suceder que la sucesión no sea
convergente o ésta es muy lenta. Hay métodos para superar estas fallas, aquí estudiaremos
el método de Sobre-relajación, lo que se busca es acelerar la convergencia, sobre todo en
aquellos casos en que la matriz de los coeficientes del sistema No es estrictamente
diagonal dominante.
La fórmula para aplicar la sobre-relajación a un sistema, surge del método de Gauss
- Seidel con una ligera perturbación o modificación en las componentes recién calculadas a
través de un promedio ponderado delas dos últimas iteraciones:
x i(k +1)=(1−w ) x i
(k)+ waii
(bi−∑j=1
i−1
aij x j− ∑j=i+1
n
aij x j)El valor de w adopta valores de 0 a 2
Si w = 1, la modificación representa la forma iterativa de Gauss-Seidel
Si 0 < w < 1, la modificación se denomina sub-relajación y se emplea para
que un sistema no convergente sea convergente o apresure su convergencia.
Si 1 < w < 2, la modificación se denomina SOBRE-RELAJACIÓN, la cual
está designada para acelerar la convergencia. También se le llama sobre-
relajación simultánea o sucesiva: SOR. Es aplicable a sistemas muy grandes.
Generalmente, el valor de w se determina empíricamente, para nuestros cálculos se
da de dato.
Refinamiento iterativo
Si las cuentas se realizaran con una aritmética infinita, es decir, teniendo en cuenta
todos los decimales, se encontraría la solución exacta luego de una cantidad finita de
operaciones. Para como en los hechos se utilizan computadoras para resolver grandes
sistemas de ecuaciones lineales, la solución exacta no se alcanza. Se tiene entonces una
aproximación de x0 a la solución de x del sistema de ecuaciones lineales.
Podemos definir de esta manera, un vector residuo que es la diferencia entre el
punto solución y el obtenido por la iteración:
ri=B−A xi
Partiendo del sistema matricial:
AX=B
La diferencia entre el punto de la iteración y el anterior es: x0+∆ x1
A ( x0+∆ x1 )=B
A x0+ A ∆ x1=B
A ∆ x1=B−A x0
A ∆ x1=r0
Como: A=LU
LU ∆ x1=r0
Realizando el cambio de variables: U ∆ x1=∆ y1
L ∆ y1=r0
Se resuelve y se obtiene: ∆ y1
Con ese valor se obtiene el valor:∆ x1 sabiendo que: U ∆ x1=∆ y1
Luego: x1=x0+∆ x1
Este procedimiento se repite hasta alcanzar la precisión satisfactoria.
Integración numérica
Definición
La integración numérica es una herramienta esencial que se usa en la ciencia
e ingeniería para obtener valores aproximados de integrales definidas que no pueden
calcularse analíticamente. Por ejemplo, en el campo de la estadística, el modelo de
Distribución Normal (campana de Gauss), para calcular la función de distribución
deberíamos integrar la función de densidad:
∫−∞
x1
σ √2 πe
−12 ( t−μ
σ )2
dt
Puesto que no hay una expresión analítica para esta función, debemos usar algún
método de integración numérica para calcular sus valores.
Tenemos como objetivo aproximar la integral definida de una función f(x) en un
intervalo [a; b] evaluando f(x) en un número finito de puntos. Supongamos que:
a=x0<x1<…<xm=b
Una función del tipo:
Q [ f ]=∑k=0
M
w k f ( xk )=w0 f ( x0 )+w1 f ( x1 )+…+wM f ( xM )
De manera tal que:
∫a
b
f ( x )dx=Q [ f ]+E [ f ]
Se llama fórmula de integración numérica o cuadratura; el termino E[f] se llama
error de truncamiento de la fórmula; los valores {xk} se llaman nodos de integración o
nodos de cuadratura y los valores {wk} se llaman pesos de la fórmula.
Los nodos se eligen de diferentes maneras, dependiendo de la situación concreta en
la que queremos aplicar una fórmula.
Grados de precisión
EL grado de precisión de una fórmula de cuadratura es el primer natural “n” que
verifica E[Pi] = 0 para todos los polinomios Pi(x) de grado i ≤ n, y existe un polinomio Pn+1
tal que E[Pn+1(x)] ≠ 0.
Analizando un polinomio cualquiera arbitrario de grado i
Pi (x )=a0+a1 x1+a2 x2+…+ai xi
Notemos que:
Si i≤ n entonces la derivada Pin+1 ( x )=0 para todo x.
Si i=n+1 entonces Pn+ 1n+1 ( x )= (n+1 )! an+1 para todo x
Con lo expuesto podemos decir que la forma general del error de truncamiento es:
E [ f ]=K∗f n+1 (c )
Siendo K una constante y n el grado del polinomio. La deducción de las fórmulas de
cuadratura puede hacerse a partir de la interpolación polinomial. Recordemos que existe un
único polinomio PM(x) de grado menor o igual que M que pasa por M+1 puntos dados
{( xk , yk )}k=0M cuyas abscisas están equiespaciadas.
Fórmula de cuadratura cerrada de Newton - Cotes
Cuando usamos un polinomio para aproximar la función f(x) en [a; b], de manera
que yk=f ( xk ) y luego aproximamos la integral de f(x) por la integral de PM (x). si el primer
nodo es x0=a y el último es xM =b, entonces decimos que la fórmula de Newton – Cotes es
cerrada.
Precisión de las fórmulas de Newton - Cotes
Supongamos que f(x) es suficientemente derivable, entonces el término del error de
truncamiento E[f] de las fórmulas de Newton – Cotes contienen una derivada de orden
superior adecuada evaluada en un cierto punto c perteneciente al intervalo (a; b). En pocas
palabras, derivamos hasta un grado más del orden del polinomio y lo evaluamos en un
punto c intermedio entre a y b.
Nuestro objetivo es, en primera instancia, encontrar un polinomio que se aproxima a
nuestra función a integrar. Partimos del polinomio interpolador de Lagrange PM(x) para los
nodos x0 , x1 ,…,xM que se usa para aproximar a f(x).
Recordemos el polinomio interpolador de Lagrange:
Para calcular un polinomio de grado N usamos:
P1 (x )=∑k=0
n
yk∗LN , k ( x )
De donde:
LN ,k ( x )=( x−x0 ) ( x−x1 ) ( x−x2 ) … ( x−xk−1 ) ( x−xk+1 ) … ( x−x N )
( xk−x0 ) ( xk−x1 ) ( xk−x2 ) … ( xk−xk−1 ) ( xk−xk +1) … ( xk−xN )
Notemos que:
En el numerador no aparece el término ( x−xk )
En el denominador no aparece el término ( xk−xk ), es decir, que no se anule.
En pocas palabras, sacamos los términos que anulan el denominador tanto en el
numerador como en el denominador.
Con lo recordado anteriormente, podemos decir que:
f ( x ) ≈ PM ( x )=∑k=0
n
yk∗LN ,k ( x )
Una vez obtenido el polinomio, lo reemplazamos por f(x) y calculamos la integral
de la función.
∫a
b
f ( x )dx ≈∫a
b
PM ( x )dx=∫a
b
(∑k=0
n
y k∗LN ,k ( x ))d x=∑k=0
n
∫a
b
yk∗LN , k ( x ) dx
Como yk es constante, sale fuera de la integral:
∫a
b
f ( x )dx ≈∑k=0
n
yk∫a
b
LN , k (x )=∑k=0
M
w k f ( xk )
Fórmulas de cuadratura cerrada de Newton- Cotes
Reglas de Trapecios y Simpson con sus respectivos errores
Supongamos que f(x) es suficientemente derivable; entonces el término del
error de truncamiento E(f) de las fórmulas de Newton – Cotes contienen una derivada de
orden superior adecuada evaluada en un cierto punto c perteneciente a (a, b). Dependiendo
del grado de precisión del polinomio obtendremos las siguientes reglas:
N = 1 Regla de Trapecios
N = 2 Regla de Simpson
N = 3 Regla 3/8 de Simpson
N = 4 Regla de Boole.
Realizaremos la demostración. Recordemos que aproximamos la función f con el
polinomio de Lagrange
f ( x ) ≈ PM ( x )=∑k=0
n
yk∗LN ,k ( x )
Entonces:
∫a
b
f ( x )dx ≈∑k=0
n
yk∫a
b
LN , k (x )=∑k=0
M
w k f ( xk )
A partir de esta expresión, dependiendo del grado del polinomio de Lagrange
obtendremos las respectivas expresiones:
Regla de Trapecios
Para la la regla de Trapecios, necesitamos dos puntos y obtenemos un polinomio de
grado 1. Su precisión es de grado 1 ya que es el máximo polinomio que podemos aproximar
perfectamente en un intervalo determinado.
f ( x ) ≈ P1 ( x )=∑k=0
1
yk∗L1 ,k ( x )
f ( x ) ≈ P1 ( x )= y0∗L1,0 (x )+ y1∗L1,1 ( x )
f ( x ) ≈y0∗x−x1
x0−x1+
y1∗x−x0
x1−x0
Entonces:
∫a
b
f ( x )dx ≈∫a
b y0∗x−x1
x0−x1+
y1∗x−x0
x1−x0
Como yk es constante, sale fuera de la integral:
∫a
b
f ( x )dx ≈ y0∫a
b x−x1
x0−x1dx+ y1∫
a
b x−x0
x1−x0dx
Realizando un cambio de variable para facilitar el cálculo de la integral:
X=x0+ht derivando⇒
dX=hdt
El término x0 se lo conoce como valor inicial mientras que el término “h” se lo
conoce como paso.
Además, la variable ahora es “t”, de esta manera, para calcular un valor de xk lo que
hacemos es reemplazar a “t” por “k”:
X k=x0+hk
Si definimos que están equiespaciados podemos afirmar que:
X k−X j=( x0+hk )−( x0+hj )=h (k− j )
X−X j=( x0+ht )−( x0+hj )=h ( t− j )
∫a
b
f ( x )dx ≈ y0∫a
b x−x1
x0−x1dx+ y1∫
a
b x−x0
x1−x0dx
Reemplazando en las integrales obtenemos:
∫a
b
f ( x )dx ≈ y0∫0
1 h ( t−1 )h (0−1 )
h dt+ y1∫0
1 h ( t−0 )h (1−0 )
h dt
∫a
b
f ( x )dx ≈ y0∫0
1
h (1−t ) dt+ y1∫0
1
ht dt
El valor de h es constante, sale de la integral:
∫a
b
f ( x )dx ≈ y0h∫0
1
(1−t ) dt+ y1h∫0
1
t dt
∫a
b
f ( x )dx ≈ y0h∗( t−12 t 2|
0
1
)+ y1h∗( 12 t 2|
0
1
)∫a
b
f ( x )dx ≈ y0h∗1
2+ y1
h∗12
∫a
b
f ( x )dx ≈ h2 ( y0+ y1 )
Regla de Simpson
Para la regla de Simpson, necesitamos tres puntos y obtenemos un polinomio de
grado 2. Los polinomios de grado 2 tienen una precisión de orden 3.
f ( x ) ≈ P2 ( x )=∑k =0
2
yk∗L2 , k ( x )
f ( x ) ≈ P2 ( x )= y0∗L2,0 (x )+ y1∗L2,1 ( x )+ y2∗L2,2 ( x )
f ( x ) ≈y0∗( x−x1 ) ( x−x2)( x0−x1 ) ( x0−x2 )
+y1∗( x−x0 ) ( x−x2 )( x1−x0) ( x1−x2 )
+y2∗( x−x0 ) ( x−x1 )( x2−x0 ) ( x2−x1)
Entonces:
∫a
b
f ( x )dx ≈∫a
b
( y0∗( x−x1 ) ( x−x2 )( x0−x1) ( x0−x2 )
+y1∗( x−x0 ) ( x−x2)( x1−x0 ) ( x1−x2 )
+y2∗( x−x0 ) ( x−x1 )( x2−x0 ) ( x2−x1 ) )dx
Como yk es constante, sale fuera de la integral:
∫a
b
f ( x )dx ≈ y0∫a
b ( x−x1 ) ( x−x2)( x0−x1 ) ( x0−x2)
dx+ y1∫a
b ( x−x0 ) ( x−x2)( x1−x0 ) ( x1−x2 )
dx+ y2∫a
b ( x−x0 ) ( x−x1 )( x2−x0 ) ( x2−x1 )
dx
Realizando un cambio de variable para facilitar el cálculo de la integral:
X=x0+ht derivando⇒
dX=hdt
El término x0 se lo conoce como valor inicial mientras que el término “h” se lo
conoce como paso.
Además, la variable ahora es “t”, de esta manera, para calcular un valor de xk lo que
hacemos es reemplazar a “t” por “k”:
X k=x0+hk
Si definimos que están equiespaciados podemos afirmar que:
X k−X j=( x0+hk )−( x0+hj )=h (k− j )
X−X j=( x0+ht )−( x0+hj )=h ( t− j )
∫a
b
f ( x )dx ≈ y0∫a
b ( x−x1 ) ( x−x2)( x0−x1 ) ( x0−x2)
dx+ y1∫a
b ( x−x0 ) ( x−x2)( x1−x0 ) ( x1−x2 )
dx+ y2∫a
b ( x−x0 ) ( x−x1 )( x2−x0 ) ( x2−x1 )
dx
Reemplazando en las integrales obtenemos:
∫a
b
f ( x )dx ≈ y0∫0
2 h2 ( t−1 ) ( t−2 )h2 (0−1 ) (0−2 )
hdt + y1∫0
2 h2 ( t−0 ) ( t−2 )h2 (1−0 ) (1−2 )
h dt+ y2∫0
2 h2 (t−0 ) (t−1 )h2 (2−0 ) (2−1 )
h dt
El valor de h es constante, sale de la integral:
∫a
b
f ( x )dx ≈ y0h∫0
2 ( t−1 ) (t−2 )2
dt+ y1h∫0
2 (t−0 ) ( t−2 )−1
dt+ y2h∫0
2 ( t−0 ) (t−1 )2
dt
∫a
b
f ( x )dx ≈ y0h2∫0
2
( t2−3 t +2 ) dt+ y1h
−1∫02
(t 2−2t ) dt + y2h2∫0
2
(t 2−t ) dt
∫a
b
f ( x )dx ≈ y0h2∗( 1
3 t3−32 t2+2 t|
0
2)+ y1h
−1∗( 13 t 3−t 2|
0
2)+ y2h2∗( 1
3 t 3−12 t 2|
0
2)
∫a
b
f ( x )dx ≈ y0
h2∗2
3+ y1
h−1
∗−4
3+ y2
h2∗2
3
∫a
b
f ( x )dx ≈ y0h3∗+ y1
43
h+ y2h3
∫a
b
f ( x )dx ≈ h3 ( y0+4 y1+ y2 )
Regla de 38 de Simpson y Boole
Para la regla de 38 de Simpson, necesitamos cuatro puntos y obtenemos un
polinomio de grado 3. Esta aproximación es de orden 3.
f ( x ) ≈ P3 ( x )=∑k=0
3
yk∗L3 , k ( x )
f ( x ) ≈ P3 ( x )= y0∗L3,0 (x )+ y1∗L3,1 ( x )+ y2∗L3,2 ( x )+ y3∗L3,3 (x )
f ( x ) ≈ y0( x−x1) ( x−x2 ) ( x−x3 )
( x0−x1 ) ( x0−x2 ) ( x0−x3 )+ y1
( x−x0 ) ( x−x2 ) ( x−x3 )( x1−x0 ) ( x1−x2 )( x1−x3 )
+ y2( x−x0 ) ( x−x1 ) ( x−x3 )
( x2−x0 ) ( x2−x1 ) ( x2−x3 )+ y3
( x−x0 ) ( x−x1 ) ( x−x2 )( x3−x0 ) ( x3−x1) ( x3−x2 )
Entonces:
∫a
b
f ( x )dx ≈∫a
b
( y0( x−x1 ) ( x−x2 ) ( x−x3 )
( x0−x1) ( x0−x2 ) ( x0−x3 )+ y1
( x−x0 ) ( x−x2 ) ( x−x3 )( x1−x0 ) ( x1−x2 ) ( x1−x3 )
+ y2( x−x0 ) ( x−x1) ( x−x3 )
( x2− x0 ) ( x2−x1 ) ( x2−x3)+ y3
( x−x0 ) ( x−x1) ( x− x2 )( x3− x0 ) ( x3−x1 ) ( x3−x2 ) )dx
Como yk es constante, sale fuera de la integral:
∫a
b
f ( x )dx ≈ y0∫a
b ( x−x1 ) ( x−x2 ) ( x−x3 )( x0−x1 ) ( x0−x2) ( x0− x3 )
dx+ y1∫a
b ( x−x0 ) ( x−x2 ) ( x−x3 )( x1−x0 ) ( x1−x2 ) ( x1−x3 )
d x+ y2∫a
b ( x−x0 ) ( x−x1) ( x−x3 )( x2− x0 ) ( x2−x1 ) ( x2−x3)
dx+ y3∫a
b ( x−x0 ) ( x−x1 ) ( x−x2 )( x3−x0 ) ( x3−x1 ) ( x3−x2 )
dx
Realizando un cambio de variable para facilitar el cálculo de la integral:
X=x0+ht derivando⇒
dX=hdt
El término x0 se lo conoce como valor inicial mientras que el término “h” se lo
conoce como paso.
Además, la variable ahora es “t”, de esta manera, para calcular un valor de xk lo que
hacemos es reemplazar a “t” por “k”:
X k=x0+hk
Si definimos que están equiespaciados podemos afirmar que:
X k−X j=( x0+hk )−( x0+hj )=h (k− j )
X−X j=( x0+ht )−( x0+hj )=h ( t− j )
∫a
b
f ( x )dx ≈ y0∫a
b ( x−x1 ) ( x−x2 ) ( x−x3 )( x0−x1 ) ( x0−x2) ( x0− x3 )
dx+ y1∫a
b ( x−x0 ) ( x−x2 ) ( x−x3 )( x1−x0 ) ( x1−x2 ) ( x1−x3 )
dx+ y2∫a
b ( x−x0 ) ( x−x1 ) ( x−x3 )( x2−x0 ) ( x2−x1) ( x2−x3 )
dx+ y3∫a
b ( x−x0 ) ( x−x1 ) ( x−x2 )( x3−x0 ) ( x3−x1 ) ( x3−x2 )
dx
Reemplazando en las integrales obtenemos:
∫a
b
f ( x )dx ≈ y0∫0
3 h3 ( t−1 ) (t−2 ) (t−3 )h3 (0−1 ) (0−2 ) (0−3 )
h dt+ y1∫0
3 h3 (t−0 ) ( t−2 ) (t−3 )h3 (1−0 ) (1−2 ) (1−3 )
h dt+ y2∫0
3 h3 (t−0 ) ( t−1 ) (t−3 )h3 (2−0 ) (2−1 ) (2−3 )
h dt + y3∫0
3 h3 (t−0 ) ( t−1 ) ( t−2 )h3 (3−0 ) (3−1 ) (3−2 )
hdt
El valor de h es constante, sale de la integral:
∫a
b
f ( x )dx ≈ y0∫0
3 ( t−1 ) (t−2 ) (t−3 )−6
hdt+ y1∫0
3 ( t−0 ) (t−2 ) ( t−3 )2
hdt+ y2∫0
3 ( t−0 ) (t−1 ) (t−3 )−2
hdt+ y3∫0
3 ( t−0 ) (t−1 ) ( t−2 )6
hdt
∫a
b
f ( x )dx ≈ y0h∫0
3 t3−6 t2+11t−6−6
dt+ y1h∫0
3 t3−5 t 2+6 t2
dt+ y2h∫0
3 t 3−4 t 2+3 t−2
dt + y3 h∫0
3 t 3−3 t2+2 t6
dt
∫a
b
f ( x )dx ≈ y0h
−6∗( 14 t 4−2 t3+
112 t2−6 t|
0
3)+ y1h2∗( 1
4 t4−53 t 3+3t 2|
0
3)+ y2h
−2∗( 14 t 4−
43 t3+
32 t 2|
0
3)+ y3h6∗( 1
4 t 4−t3+t 2|0
3)
∫a
b
f ( x )dx ≈ y0h
−6∗(−9
4 )+ y1
h2∗9
4+ y2
h−2
∗(−94 )+ y3
h6∗( 9
4 )
∫a
b
f ( x )dx ≈ y038
h+ y198
h+ y298
h+ y338
h
∫a
b
f ( x )dx ≈ 38
h ( y0+3 y1+3 y2+ y3 )
Para la Regla de Boole es el mismo mecanismo, quedando como expresión final.
∫a
b
f ( x )dx ≈ 245
h (7 y0+32 y1+12 y2+32 y3+7 y 4 )
Notemos que para las reglas necesitamos n+1 puntos o nodos para resolver. Y que
los nodos los tenemos que tener equidistantes
Reglas compuestas
En caso de querer usar estas reglas con más nodos nos apoyamos en que podemos
partir la integral con sumas de subintervalos y aplicar una suma de reglas. Por ejemplo:
para calcular la integral de f(x) con los límites de integración que son de x0 a x4 podemos
partir la integral y sumar las integrales partidas con los límites x0 a x1, de x1 a x2, de x2 a x3
y de x3 a x4. Cada subintegral queda definida por dos nodos por lo que cada una de ellas es
una aplicación de la regla de trapecios; y la suma de ellas se denomina Regla compuesta de
trapecios.
∫x0
x4
f ( x )dx=∫x0
x1
f ( x )dx+∫x1
x2
f ( x ) dx+∫x2
x3
f ( x ) dx+∫x3
x4
f ( x ) dx
∫x0
x4
f ( x )dx= h2 (f 0+ f 1 )+ h
2 ( f 1+f 2)+ h2 (f 2+ f 3 )+ h
2 ( f 3+ f 4 )
∫x0
x4
f ( x )dx=h2 (f 0+2 f 1+2 f 2+2 f 3+f 4 )
De la misma manera, podemos usar una regla compuesta para la regla de Simpson
denominándola Regla compuesta de Simpson:
∫x0
x4
f ( x )dx=∫x0
x2
f ( x )dx+∫x2
x4
f ( x ) dx
∫x0
x4
f ( x )dx= h3 (f 0+4 f 1+ f 2 )+ h
3 ( f 2+4 f 3+ f 4 )
∫x0
x4
f ( x )dx=h3 (f 0+4 f 1+2 f 2+4 f 3+ f 4 )
Análisis de error para la regla compuesta de trapecios y Simpson
Como se mencionó anteriormente, sabemos que la aproximación de la integral
posee un término de error el cual intentaremos calcular a continuación. Para el polinomio,
su término de error será:
En ( x )=∏k=0
n
( x−xk )∗f n+1 (c )
(n+1 )!
Si analizamos el polinomio de tiene una precisión de grado 1 (regla de trapecios),
esta productoria va de 0 a 1.
E1 ( x )=∏k=0
1
( x−xk )∗f 2 (c )
2 !
Por lo tanto:
∫x0
x1
E1 ( x )=∫x0
x1 ( x−x0 ) ( x−x1 )∗f 2 ( c )2!
Como el término (x – x0) (x – x1) no cambia de signo en el intervalo [x0, x1] y f2(x)
es continua, el segundo teorema del valor medio para integrales nos dice que existe un valor
c1 tal que:
∫x0
x1
E1 ( x )=f 2 (c1 )
2 ! ∫x0
x1
( x−x0 ) ( x−x1 ) dx
Realizando el cambio de variables:
∫x0
x1
E1 ( x )=f 2 (c1 )
2 ! ∫0
1
h2 (t−0 ) ( t−1 ) hdt
∫x0
x1
E1 ( x )=f 2 (c1 )
2 ! ∫0
1
h3 (t 2−t ) dt
∫x0
x1
E1 ( x )=f 2 (c1 )
2 !h3∫
0
1
(t 2−t ) dt
∫x0
x1
E1 ( x )=f 2 (c1 )
2 ! h3( 13 t3−
12 t 2|
0
1)∫x0
x1
E1 ( x )=f 2 (c1 )
2 !h3(−1
6 )El valor de h se obtiene, en un intervalo [ a , b ]
h=b−aM
Entonces:
∫x0
x1
E1 ( x )=−f 2 (c1 )
12h3=
−h f 2 (c1 )12
h2=− (b−a )∗f 2 (c )
M∗12h2
Para la regla compuesta, tenemos varios valores de c:
∫x0
x1
E1 ( x )=−(b−a )∗h2
12 ( 1M ∑
k=1
M
f 2 (ck ))∫x0
x1
E1 ( x )=−(b−a )∗h2
12 ( 1M ∑
k=1
M
f 2 (ck ))
El término entre paréntesis es una media aritmética de valores de la derivada
segunda y esta función es continua, entonces podemos reemplazarlo por algún punto c
perteneciente al intervalo (a, b) quedando:
∫x0
x1
E1 ( x )=−(b−a )∗f 2 (C )¿h2
12
Para la regla de Simpson se realizan los mismos pasos:
Para el polinomio, su término de error será:
En ( x )=∏k=0
n
( x−xk )∗f n+1 (c )
(n+1 )!
Si analizamos el polinomio de grado de precisión de grado 3 (regla de simpson),
esta productoria va de 0 a 3.
E3 ( x )=∏k=0
3
( x−xk )∗f 4 (c )
4 !
Por lo tanto:
∫x0
x2
E3 ( x )=∫x0
x2 ( x−x0 ) ( x−x1 ) ( x−x2 ) ( x−x3 )∗f 4 (x )4 !
Como el término ( x−x0 ) ( x−x1 ) ( x−x2 ) no cambia de signo en el intervalo [x0, x2] y
f4(x) es continua, el segundo teorema del valor medio para integrales nos dice que existe un
valor c1 tal que:
∫x0
x2
E3 ( x )=f 4 (c1 )
4 ! ∫x0
x2
( x−x0 ) ( x−x1 ) ( x−x2) ( x−x3 ) dx
Realizando el cambio de variables:
∫x0
x2
E3 ( x )=f 4 (c1 )
4 ! ∫0
2
h4 (t−0 ) (t−1 ) (t−2 ) ( t−3 ) hdt
∫x0
x2
E3 ( x )=f 4 (c1 )
4 ! ∫0
2
h5 (t 4−6 t 3+11 t 2−6 t ) dt
∫x0
x2
E3 ( x )=f 4 (c1 )
4 !h5∫
0
2
(t 4−6 t 3+11 t 2−6 t ) dt
∫x0
x2
E3 ( x )=f 4 (c1 )
4 ! h5( 15 t 5−
32 t 4+
113 t 3−3 t 2|
0
2)∫x0
x2
E2 ( x )=f 2 (c1 )
4 !h5(−4
15 )El valor de h se obtiene, en un intervalo [ a , b ]
h=b−a2 M
Entonces:
∫x0
x2
E2 ( x )=−f 4 (c1 )
90h5=
−h f 4 (c1 )90
h4=−(b−a )∗f 4 (c )
M∗180h4
Para la regla compuesta, tenemos varios valores de c:
∫x0
x2
E2 ( x )=−(b−a )∗h4
180 ( 1M ∑
k=1
M
f 4 (ck ))∫x0
x2
E2 ( x )=−(b−a )∗h4
180 ( 1M ∑
k=1
M
f 4 (ck ))El término entre paréntesis es una media aritmética de valores de la derivada
segunda y esta función es continua, entonces podemos reemplazarlo por algún punto c
perteneciente al intervalo (a, b) quedando:
∫x0
x2
E2 ( x )=−(b−a )∗f 4 (C ) ¿h4
180
Cuadratura de Gauss – Legendre. Cuadratura Gaussiana
El método consiste en seleccionar los valores x1, x2, … , xn en el intervalo [a, b] y
los coeficientes c1, c2, … , cn que minimicen el error de aproximación.
Para una función arbitraria f(x) la mejor elección de estos valores será la que
maximice el grado de precisión de la formula.
∫a
b
f ( x )dx ≈∑k=0
n
yk∫a
b
LN , k (x ) dx=∑k=0
n
yk∗w k (1 )
Si los coeficientes de un polinomio se consideran también como parámetros, la clase
de polinomios de grado a lo sumo 2n-1 contiene 2n parámetros y es la clase más grande de
polinomios para la cual es razonable esperar que la ecuación anterior sea exacta.
Los valores de los xi y los coeficientes ci se calculan por el método de coeficientes
indeterminados. Por ejemplo, para que la integral sea exacta para polinomios cúbicos (n=2
por lo tanto necesito 4 parámetros) para que la función cúbica f(x) = a3x3 + a2x2 + a1x + a0
sea exacta hay que determinar cuatro números (w1, w2, x1 y x2). Para ello necesito 4
condiciones (ecuaciones) para resolver las 4 incógnitas del sistema.
F ( X )=1→
∫−1
1
1dx=2=w1∗1+w2∗1
F ( X )=x→
∫−1
1
xdx=0=w1∗x1+w2∗x2
F ( X )=x2→
∫−1
1
x dx=23=w1∗x1
2+w2∗x22
F ( X )=x3→
∫−1
1
xdx=0=w1∗x13+w2∗x2
3
Notemos que hacemos cumplir la ecuación (1) utilizando los términos que multiplican a los ai de la ecuación cúbica
De las 4 ecuaciones anteriores obtenemos un sistema de ecuaciones no lineal que
tenemos que resolver:
{2=w1∗1+w2∗1
0=w1∗x1+w2∗x2
23=w1∗x1
2+w2∗x22
0=w 1∗x13+w2∗x2
3
Si resolvemos el sistema obtenemos que
−x1=x2=( 13 )
12 ≈ 0 ,5773502692
w1=w2=1
Para no tener que encontrar los nodos y pesos cada vez que aproximemos una
integral se tabularon obteniéndose la siguiente tabla:
N Nodos Coeficiente
2 ±0,5773502692 1,0000000000
3±0,7745966692
0,0000000000
0,5555555556
0,8888888889
4±0,8611361159
±0,3399810436
0,3478548451
0,6521451549
La aplicación del método de Gauss – Legendre sirve solo para integrales cuyos
límites de integración sean -1 y 1 respectivamente. Para aplicarlo en cualquier intervalo
[ a ,b ] usamos el siguiente cambio de variable:
t=a+b2
+ b−a2
x
De donde:
dt=b−a2
dx
Ecuaciones Diferenciales
Las ecuaciones diferenciales se usan habitualmente para construir modelos
matemáticos de problemas de la ciencia y la ingeniería. A menudo se da el caso de que no
hay una solución analítica conocida, por lo que necesitamos aproximaciones numéricas.
Si consideramos la ecuación:
dydt
=1−e−t
Esta es una ecuación diferencial porque en ella aparece la derivada dy/dt de la
“función desconocida” y = y(t). En el miembro derecho de la ecuación sólo aparece la
variable independiente t, así que las soluciones son las primitivas de 1−e−t. Resolviendo la
integral hallamos y(t).
y (t )=t+et+C
Donde C es la constante de integración. Notemos que en la solución hallada
tenemos un grado de libertad en la elección de la solución, la constante de integración C.
para encontrar una curva en particular necesitamos un punto de antemano. En un análisis en
general, somos capaces de medir cómo los cambios de una variable afectan a otra. Cuando
traducimos esto en un modelo matemático, el resultado es una ecuación diferencial que
involucra la velocidad de cambio de la función desconocida.
Cada elección de punto nos da una solución distinta por lo que la condición inicial
es como un punto anclaje de la curva correspondiente a la solución.
Condición de Lipschitz
Dado el rectángulo R={ ( t , y ): a≤t ≤b , c ≤ y ≤ d }, supongamos que f (t, y) es continua
en R. se dice que la función f verifica la condición de Lipschitz con respecto a sus variables
en R si exite una constante L > 0 tal que:
|f (t , y1 )−f (t , y2 )|≤ L|y1− y2|
Para cualquier (t, y1), (t, y2) perteneciente a R. la constante L se llama constante de
Lipschitz.
Un problema de valor inicial tiene solución única si f verifica la condición de
Lipschitz.
Método de Euler
Sea [a, b] el intervalo en el que queremos hallar la solución de un problema inicial y
´= f (t, y) con y(a) = y0 que está bien planteado (cumple con la condición de Lipschitz). Hay
que advertir que, de hecho, no vamos a encontrar una función derivable que sea solución
del problema de valor inicial. Sino que construimos un conjunto finito de puntos {(tk, yk)}
que son aproximaciones de la solución.
Primeramente se parte en intervalo en subintervalos del mismo tamaño.
T k=a+hk
h=b−aM
Suponemos que y(t), y´(t) e y´´(t) son continuas, por lo que si utilizamos el teorema
de Taylor para desarrollar y(t) alrededor de t = t0, para cada t existe un c1 entre t0 y t tal que:
y ( t )= y ( t0 )+ y ´ (t 0 ) (t−t 0 )+y ´ ´ (c1 )
2 ! (t−t 0 )2
Al sustituir: y ´ (t 0)=f ( t0 , y (t0 ) ) y h=t−t 0 el resultado es:
y (t )= y ( t0 )+ f (t 0 , y (t 0 ))h+y ´ ´ ( c1 )
2!h2
Si el tamaño de paso “h” es muy pequeño lo podemos despreciar por lo que nos
queda:
y ( t )= y ( t0 )+ f (t 0 , y (t 0 ))hque se llama aproximación de Euler.
Repitiendo el proceso generamos una sucesión de puntos que se aproximan a la
gráfica de la solución y = y(t). el paso general del método de Euler es:
t k+1= tk+h
yk +1= yk+hf (t k , yk )
Descripción geométrica
Si partimos del punto (t0, y0), calculamos el valor de la pendiente m0 = f(t0, y0), nos
movemos horizontalmente una distancia h y verticalmente una distancia h f(t0, y0), entonces
lo que hacemos es desplazarnos a lo largo de la recta tangente a la curva y(t) terminando en
el punto (t1, y1). Cabe mencionar que (t1, y1) no es un punto de la curva aunque sea la
aproximación que se genera. Ahora debemos usar (t1, y1), como si fuera un punto correcto
para calcular la pendiente m1 = f(t1, y1) y usar este valor para obtener el siguiente
desplazamiento vertical h f(t1, y1), que nos lleva al punto (t2, y2), y así sucesivamente.