msa para final

91
Los métodos numéricos son metodologías que utilizan técnicas meramente algebraicas y aritméticas para resolver de forma aproximada ecuaciones o sistemas de ecuaciones complejos, que analíticamente resultan muy difíciles e incluso imposibles de resolver. Para el caso de aplicaciones de ingeniería sirven exactamente para lo mismo: resolver modelos analíticamente complejos mediante la aplicación de Matemática Superior Aplicada Resumen de Teoría Y complementos de ejercicios Maximiliano Armoa AÑO 2015 pág.

Upload: maximiliano-armoa

Post on 20-Feb-2017

430 views

Category:

Education


1 download

TRANSCRIPT

Page 1: Msa para final

Los métodos numéricos son metodologías que utilizan técnicas meramente algebraicas y aritméticas para resolver de forma aproximada ecuaciones o sistemas de ecuaciones complejos, que analíticamente resultan muy difíciles e incluso imposibles de resolver. Para el caso de aplicaciones de ingeniería sirven exactamente para lo mismo: resolver modelos analíticamente complejos mediante la aplicación de técnicas matemáticas básicas (estas técnicas numéricas, son las bases para la solución y simulación de problemas complejos utilizando computadoras). En esta guía se verán algunos métodos que son los que se utilizan para la carrera de Ingeniería Química.

Matemática Superior AplicadaResumen de Teoría

Y complementos de ejercicios

Maximiliano Armoa

AÑO 2015

pág.

Page 2: Msa para final

Introducción................................................................................................................1Teorema de Taylor......................................................................................................2

Los Coeficientes de un polinomio en términos de sus derivadas............................5Errores.........................................................................................................................8

Definiciones............................................................................................................8Sistemas de numeración..........................................................................................8Error en una función................................................................................................9

Grafos........................................................................................................................11Grafo Suma...........................................................................................................11Grafo Resta............................................................................................................12Grafo Multiplicación.............................................................................................12Grafo División.......................................................................................................13Grafo Operación....................................................................................................14

Interpolación.............................................................................................................16Definición..............................................................................................................16Interpolación lineal y polinomio interpolador de Lagrange..................................16

Términos de cota de error..................................................................................18Polinomio Interpolador de Newton.......................................................................18

Método de diferencias divididas.......................................................................19Cota de Error.................................................................................................20

Mínimos Cuadrados..............................................................................................20Ajuste Lineal.....................................................................................................21Ajuste Polinomial..............................................................................................23

Forma Matricial de resolución para ajuste....................................................24Linealización de datos – Cambios de variable que linealizan datos.................26Ajuste de una función a una función.................................................................27Ajuste de puntos a una combinación de funciones...........................................30

Interpolación por Splines – Interpolación polinomial a trozos.............................32Sistemas de Ecuaciones Lineales..............................................................................34

Introducción..........................................................................................................34Tipos de Sistema...................................................................................................35Métodos para resolver sistemas de ecuaciones lineales........................................35

Eliminación Gaussiana y pivoteo – sustitución regresiva.................................36Factorización triangular.....................................................................................37

Page 3: Msa para final

Método Jacobi...................................................................................................37Método Gauss - Seidel......................................................................................39

Determinación de convergencia de ambos métodos de iteración.................40Obtención de las matrices de Jacobi y Gauss Seidel.................................40

SOR (Successive Over Relaxation) - Sobrerelajación..................................41Refinamiento iterativo...................................................................................42

Integración numérica.................................................................................................44Definición..............................................................................................................44Grados de precisión...............................................................................................45

Fórmula de cuadratura cerrada de Newton - Cotes...........................................46Precisión de las fórmulas de Newton - Cotes................................................46

Fórmulas de cuadratura cerrada de Newton- Cotes..........................................48Reglas de Trapecios y Simpson con sus respectivos errores........................48

Regla de Trapecios....................................................................................48Regla de Simpson......................................................................................50Regla de 38 de Simpson y Boole..............................................................52Reglas compuestas....................................................................................55Análisis de error para la regla compuesta de trapecios y Simpson...........56

Cuadratura de Gauss – Legendre. Cuadratura Gaussiana.............................60Ecuaciones Diferenciales..........................................................................................63

Condición de Lipschitz..........................................................................................63Método de Euler....................................................................................................64

Descripción geométrica.....................................................................................65

Page 4: Msa para final

Introducción

Este es un resumen confeccionado como guía de estudio para la materia Matemática

superior aplicada de la carrera de Ingeniería Química, está hecho con el fin de ser una

herramienta más y como un resumen de la materia para su eventual estudio. Es solo para

ayuda, no se recomienda estudiar solo de este material (aunque cada uno es libre de hacer

lo que quiera) y la idea es mejorarlo en todo momento posible para brindar una ayuda a

todos los compañeros que la cursan o cursarán.

Es una recopilación de apuntes tomados en clase, de extracciones de distintos libros

y varias fuentes de Internet.

Vuelvo a repetirlo para que quede claro, es un material recopilado por un estudiante

y no es un apunte de la cátedra.

Espero les sirva como me sirvió a mí.

Ahh me olvidaba, cualquier mejora que se le pueda hacer (que seguramente son

muchas) bienvenidas sean.

Gracias por difundirlo

Armoa Maximiliano

pág.

Page 5: Msa para final

Teorema de Taylor

Sabemos que la recta tangente, como la mejor aproximación lineal a la gráfica de f

en las cercanías del punto de tangencia (xo, f (xo)), es aquella recta que pasa por el

mencionado punto y tiene la misma pendiente que la curva en ese punto (primera derivada

en el punto), lo que hace que la recta tangente y la curva sean prácticamente indistinguibles

en las cercanías del punto de tangencia. Gráficamente podemos observar que la curva se

pega "suavemente" a la recta en este entorno, de tal manera que "de todas las rectas que

pasan por el punto, es esta recta la que más se parece a la curva cerca del punto".

Nótese que cerca del punto de tangencia, la curva se comporta casi linealmente,

como se puede apreciar si hacemos acercamientos a la gráfica anterior

Page 6: Msa para final

Como observamos en los problemas de diferencial, si x se encuentra "lejos" de xo, la

recta tangente ya no funciona como aproximador. Parece pues natural preguntarnos por otra

función (no lineal) que sirva a nuestros propósitos. La recta tangente es un polinomio de

grado 1, el más sencillo tipo de función que podemos encontrar, por lo que podemos tratar

de ver si es posible encontrar un polinomio de grado dos que nos sirva para aproximar

nuestra función en un rango más grande que la recta tangente.

Veamos que sucede si en lugar de aproximarnos con una recta tratamos de hacerlo

con una parábola, es decir tratemos de encontrar de todas las parábolas que pasan por (xo, f

(xo)), la que mejor aproxima a la curva, es decir tratemos de encontrar "la parábola

tangente". Nótese que la parábola tangente a una curva no es única.

Naturalmente a esta parábola P ( x )=a+b ( x−x0 )+c ( x−x0 )2 debemos pedirle que

pase por el punto, que tenga la misma inclinación (primera derivada) y la misma

concavidad que la parábola (segunda derivada), es decir debemos pedirle:

P ( x0 )= f ( x0 )

P ´ ( x0 )=f ´ ( x0 )

P ´ ´ ( x0 )=f ´ ´ ( x0 )

Como:

P ( x0 )=a

Page 7: Msa para final

P ´ ( x0 )=b

P ´ ´ ( x0 )=2 c

Se concluye que:

a=f ( x0 )

b=f ´ ( x0 )

c=12

f ´ ´ ( x0 )

Quedando la ecuación de la parábola que mejor aproxima a la curva en las cercanías

de (xo, f (xo)), como:

P ( x )=f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12

f ´ ´ ( x0 ) ( x−x0 )2

En la figura de abajo, observamos gráficamente los tres sumandos de la expresión

de la parábola tangente. Los dos primeros nos dan la altura sobre la recta tangente y

añadiéndole el tercero nos da la altura sobre la parábola tangente.

Verifiquemos lo anterior en el caso particular de la función f ( x )=ex, xo = 0 y

valores de x cercanos a 0.

Page 8: Msa para final

En la tabla de abajo observamos que la parábola tangente a la gráfica de f en (0,1)

efectivamente es una mejor aproximación para f que la recta tangente, para valores

cercanos a 0.

x 1+x1+x+ x2

2ex

1,0 2 2,5 2,718281828

0,5 1,5 1,625 1,6487212707

0,3 1,3 1,345 1,34985880757

0,1 1,1 1,105 1,10517091807

0,01 1,01 1,01005 1,010050167

0,001 1,001 1,0010005 1,00100050016

Los Coeficientes de un polinomio en términos de sus derivadas

Un polinomio de grado n está completamente determinado por sus (n+1)

coeficientes.

P ( x )=a0+a1 ( x−x0 )+a2 ( x−x0 )2+a3 ( x−x0 )3+…+an ( x−x0 )n

En lo sucesivo, expresaremos al polinomio en potencias de (x - xo) y encontraremos

sus coeficientes en términos de las derivadas evaluadas en xo.

P ´ ( x )=a1+2a2 ( x−x0 )+3 a3 ( x−x0 )2+4 a4 ( x−x0 )3+…+nan ( x−x0 )n−1

P ´ ´ (x )=a2+(2)(3)a3 ( x−x0 )+(3)(4)a3 ( x−x0 )2+(4)(5)a4 ( x−x0 )3+…+(n)(n−1)an ( x−x0 )n−2

P ´ ´´ (x )=(2)(3)a3+(2)(3)(4 )a4 ( x−x0 )+(3)(4)(5)a5 ( x−x0 )2+…+(n)(n−1)(n−2)an ( x−x0 )n−3

Pn ( x )=(1 ) (2 ) (3 ) … (n ) an=n !an

De donde, evaluando cada una de estas derivadas en xo, obtenemos los coeficientes

del polinomio:

Page 9: Msa para final

a0=P ( x0 )

a1=P´ (x0)

a2=P ´ ´ (x0)

2!

a3=P ´ ´ ´ (x0)

3!

an=Pn(x0)

n !

Y en consecuencia la expresión del polinomio será:

P ( x )=P ( x0 )+P ´ ( x0 ) ( x−x0 )+P´ ´ ( x0 )

2 ! ( x−x0 )2+…+Pn ( x0 )

n ! ( x−x0 )n( I )

Volviendo a la representación (I), si f no es un polinomio, obviamente no podrá

representarse de la misma manera, sin embargo en vista de que para, la recta tangente, que

es un polinomio de grado 1, se cumple que para x cercano a xo:

f ( x )≅ f ( x0 )+ f ´ ( x0 ) ( x−x0 )

y gráficamente observamos que para x cercano a xo, la función es muy parecida a su

"parábola tangente", es decir:

f ( x )≅ f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12

f ´ ´ ( x0 ) ( x−x0 )2

surge de manera natural preguntarnos si para valores cercanos a xo, se cumplirá:

f ( x )≅ f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12

f ´ ´ ( x0 ) ( x−x0 )2+…+ 1n!

f n ( x0 ) ( x−x0 )n

Page 10: Msa para final

Entonces el polinomio:

P ( x )=f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12

f ´ ´ ( x0 ) ( x−x0 )2+…+ 1n!

f n ( x0 ) ( x−x0 )n

Lo llamaremos el POLINOMIO DE TAYLOR de grado n para f, en el punto

xo.

El Teorema de Taylor que a continuación enunciaremos sin demostración, nos dice

que bajo ciertas condiciones, una función puede ser expresarse como un polinomio de

Taylor más un cierto error, es decir:

f ( x )=P ( x )+E(x )

y además nos dirá como estimar este error.

TEOREMA DE TAYLOR. Sea f continua en [a, b] y con derivadas hasta de orden n

continúas también en este intervalo cerrado; supóngase que f n+1(x ) existe en (a,b), entonces

para x y xo perteneciente a (a,b) se tiene:

P ( x )=f ( x0 )+ f ´ ( x0 ) ( x−x0 )+ 12

f ´ ´ ( x0 ) ( x−x0 )2+…+ 1n!

f n ( x0 ) ( x−x0 )n

Donde:

En ( x )= f n+1 (c )(n+1 ) ! ( x−x0 )n+1

C es un punto que se encuentra entre x y x0.

Page 11: Msa para final

Errores

Definiciones

Error absoluto:

ε=|a−am|Error Relativo:

ε r=|a−am|

a

Como podemos notar, el error absoluto tiene unidad y el relativo carece de ella.

Además la magnitud del error relativo es independiente de la magnitud medida.

Sistemas de numeración

Diremos que un número xo es una aproximación a x con d cifras decimales

significativas si d es el mayor número natural tal que

Error por redondeo

|a−am||a|

< b−d

2

Error por truncamiento

|a−am|<b−d

Punto flotante: los números se escriben con mantisa y exponente.

a=M∗bE

b−1≤|M|≤1

Page 12: Msa para final

Ejemplo: 1234,45678 = 0,12345678 * 104. Notemos que 10-1 ≤ |0.12345678| ≤ 1

Volviendo al error absoluto, con redondeo:

ε=|x−x0|< b−m∗bE

2

Dividiendo por |x|

|x−x0||x|

< b−m∗bE

2|x|=b−m∗bE

2|M|bE = b−m

2|M|

Como: b−1≤|M|≤1, el máximo error se comete cuando |M| toma el valor más

chico:

|x−x0||x|

< b−m∗bE

2|x|=b−m∗bE

2|M|bE = b−m

2|M|≤ b−m∗b2

Error de precisión de Máquina=b−m∗b2

Para una computadora que trabaja con 8 bytes, m = 16

Con lo anterior deducimos que el error absoluto (sabiendo que d son decimales

significativos).

10−d

2

Con error relativo (con t cantidad de dígitos significativos)

101−t

2

Error en una función

f ( x+∆ x )=f ( x )+ f ´ ( x )∗∆ x+O(∆ x )2

f ( x+∆ x )−f ( x )=f ´ ( x )∗∆ x

Page 13: Msa para final

∆ f =f ´∗∆ x

∆ ff

= f ´f

∗∆ x

∆ ff

= f ´f

∗∆ x∗xx

∆ ff

=

f ´f

∗∆ x

x∗x

ε f =f ´f

∗ε x∗x

ε f =f ´f

∗x∗εx

f ´f

∗x=FAX (Factor de amplificaciónde X)

ε f =FAX∗ε x

El FAX indica como varía su función en relación a su derivada y se puede prolongar

para varias variables.

Por ejemplo, sea f =f (x , y , z)

ε f =FAX∗ε x+FAY∗ε y+FAZ∗εz

Page 14: Msa para final

Grafos

Un grafo es un conjunto de objetos (llamados vértices o nodos) unidos por enlaces

(llamados aristas o arcos) que permiten representar relaciones binarias entre elementos de

un conjunto. Permiten estudiar las interrelaciones entre unidades que interactúan unas con

otras.

El mecanismo del grafo consiste, al igual que el diagrama de árbol, en recorrer el

camino y multiplicando las líneas de cada camino. Luego se suman todos los caminos y no

se debe olvidar sumar al final el error de operación.

Grafo Suma

Operación: f ( X ,Y )=X+Y

X Y

FAX FAY

+

Ex Ey

ESUMA

ε f =ε x∗FAX+ε y∗FAY +ε Suma

FAX=f ´ x

f∗x= 1

X+Y∗X

FAY =f ´ y

f∗y= 1

X+Y∗Y

Page 15: Msa para final

ε f =εx∗XX+Y

+ε y∗YX+Y

+ε Suma

Grafo Resta

Operación: f ( X ,Y )=X−Y

X Y

FAX FAY

-

Ex Ey

ERESTA

ε f =ε x∗FAX+ε y∗FAY +ε Resta

FAX=f ´ x

f∗x= 1

X−Y∗X

FAY =f ´ y

f∗y= −1

X−Y∗Y

ε f =ε x∗XX−Y

+ε y∗−YX−Y

+ε Resta

Grafo Multiplicación

Operación: f ( X ,Y )=X∗Y

Page 16: Msa para final

X Y

FAX FAY

*

Ex Ey

EMULTIPLICACION

ε f =ε x∗FAX+ε y∗FAY +ε Multiplicación

FAX=f ´ x

f∗x= Y

XY∗X=1

FAY =f ´ y

f∗y= X

XY∗Y =1

ε f =ε x+ε y+ε Multiplicación

Grafo División

Operación: f ( X ,Y )= XY

X Y

FAX FAY

/

Ex Ey

EDIVISION

Page 17: Msa para final

ε f =ε x∗FAX+ε y∗FAY +ε División

FAX=f ´ x

f∗x=

1YXY

∗X=1

FAY =f ´ y

f∗y=

−XY 2

XY

∗Y=−1

ε f =ε x−ε y+εDivisión

Grafo Operación

Operación: f ( X ,Y )=f ( X ,Y )

X Y

FAX FAY

f(x,y)

Ex Ey

EOPERACION

ε f =ε x∗FAX+ε y∗FAY +εOperación

FAX=f ´ x

f∗x

FAY =f ´ y

f∗y

ε f =ε x∗¿f ´ x

f∗x+

ε y∗f ´ y

f∗ y+εOperación

Page 18: Msa para final

En base a lo anterior: se obtiene la siguiente tabla:

Operación FAX FAY

Operación Generalf ´ x

f∗x

f ´ y

f∗y

SumaX

X−YY

X−Y

RestaX

X−Y−Y

X−Y

Multiplicación 1 1

División 1 -1

Vale aclarar que en cada función (cada operación) tenemos:

La función

El error de la Función

El error de la Operación

A los errores de datos los acotamos con i y a los errores de operación con μ.

(hay que tener en cuenta que esto es la posición de decimales que plantee el

problema o bien dicho las cifras significativas)

Todo lo que está multiplicando a i se lo llama condición del problema, el termino

que multiplica a μ (termino de estabilidad) depende del grafo utilizado.

Un algoritmo se dice numéricamente más estable que otro si su término de

estabilidad es menor.

Se puede definir un algoritmo estable si:

Page 19: Msa para final

COND+ESTABCOND

≫1

Page 20: Msa para final

Interpolación

Definición

Se denomina interpolación a la obtención de nuevos puntos partiendo del

conocimiento de un conjunto discreto de puntos.

En ingeniería es frecuente disponer de un cierto número de puntos obtenidos por

muestreo o a partir de un experimento y pretender construir una función que los ajuste.

En todo caso, se trata de, a partir de n parejas de puntos (xk,yk), obtener una

función f que verifique que:

f ( xk )= yk k=1 ,2 ,…,n

A la que se denomina función interpolante de dichos puntos. A los puntos xk se les

llama nodos.

En esta unidad se verán los métodos de mínimos cuadrados, Lagrange, Newton y

splines.

Interpolación lineal y polinomio interpolador de Lagrange

En esta interpolación se utiliza un segmento rectilíneo que pasa por dos puntos que

se conocen. La pendiente de la recta que pasa por esos dos puntos es:

m=y1− y0

x1−x0

Para calcular un punto intermedio, basta con reemplazar el valor de x en la

ecuación:

Page 21: Msa para final

y=P ( x )= y0+( x−x0 )∗y1− y0

x1−x0

y=P ( x )= y0+( y1− y0 )∗x−x0

x1−x0

Aplicando Distributiva:

y=P ( x )= y0+y1∗x−x0

x1−x0−

y0∗x−x0

x1−x0

Sacando factor común y0

y=P ( x )= y0(1−x−x0

x1−x0)+ y1∗x−x0

x1−x0

y=P ( x )= y0( x1−x0−x+x0

x1− x0)+ y1∗x−x0

x1−x0

y=P ( x )= y0( x1−xx1−x0

)+ y1∗x−x0

x1−x0

y=P ( x )= y0( x−x1

x0−x1)+ y1∗x−x0

x1−x0

Los términos que multiplican a las yk se llaman polinomios coeficientes de

Lagrange:

L1,0 ( x )=x−x1

x0−x1L1,1 ( x )=

x−x0

x1−x0

Por lo general la fórmula para interpolación para polinomios lineales se expresa:

P1 (x )=∑k=0

n

yk∗L1 , k ( x )

Page 22: Msa para final

Observamos que para definir una función lineal (polinomio de grado 1) se necesitan

dos puntos (k = 0 y k = 1), de modo similar, para una cuadrática se necesitan tres puntos (k

= 0, k = 1 y k = 2). Se necesitan n+1 puntos para obtener un polinomio de grado n.

Para calcular un polinomio de grado N usamos:

P1 (x )=∑k=0

n

yk∗LN , k ( x )

De donde:

LN ,k ( x )=( x−x0 ) ( x−x1 ) ( x−x2 ) … ( x−xk−1 ) ( x−xk+1 ) … ( x−x N )

( xk−x0 ) ( xk−x1 ) ( xk−x2 ) … ( xk−xk−1 ) ( xk−xk +1) … ( xk−xN )

Notemos que:

En el numerador no aparece el término ( x−xk )

En el denominador no aparece el término ( xk−xk ), es decir, que no se anule.

Términos de cota de error

El término de error es similar al de Taylor:

En ( x )=∏k=0

n

( x−xk ) f n+1

(n+1 )!

Polinomio Interpolador de Newton

Este polinomio se calcula mediante un esquema recursivo:

P1 (x )=a0+a1 ( x−x0 )

Page 23: Msa para final

P2 (x )=a0+a1 ( x−x0 )+a2 ( x−x0 ) ( x−x1 )

P3 ( x)=a0+a1 ( x−x0 )+a2 ( x−x0 ) ( x−x1 )+a3 ( x−x0) ( x− x1 ) ( x−x2 )

Pn ( x )=a0+a1 ( x− x0 )+a2 ( x−x0 ) ( x−x1 )+…+an ( x−x0 ) ( x−x1 ) …( x−xn−1)

Método de diferencias divididas

Este método sirve para calcular los coeficientes del polinomio interpolador de

Newton. Debemos calcular las siguientes generalidades:

f [ xk ]= f (xk )

f [ xk−1 ; xk ]=f ( xk )−f ( xk−1 )

xk−xk−1

f [ xk−2 ; xk−1 ; xk ]=f [ xk−1; xk ]−f [ xk−2 ; xk−1 ]

xk−xk−2

f [ xk−3 ; xk−2; xk−1; xk ]=f [ xk−2 ;xk−1 ; xk ]−f [ xk−3 ;xk −2 ; xk−1; xk ]

xk−xk−3

Para ello, vamos a construir una tabla de diferencias divididas:

xk f ( xk )= yk f [ xk−1 ; xk ] f [ xk−2 ; xk−1 ; xk ] f [ xk−3 ; xk−2; xk−1; xk ]x0 y0

x1 y1 f [ x0 ; x1 ]x2 y2 f [ x1 ;x2 ] f [ x0 ; x1 ; x2 ]x3 y3 f [ x3 ; x2 ] f [ x1 ;x2 ; x3 ] f [ x0 ; x1 ; x2; x3 ]

Escrito con las fórmulas:

xk f ( xk )= yk f [ xk−1 ; xk ] f [ xk−2 ; xk−1 ; xk ] f [ xk−3 ; xk−2; xk−1; xk ]x0 y0

x1 y1y1− y0

x1−x0(a)

Page 24: Msa para final

x2 y2y2− y1

x2−x1(b)

b−ax2−x0

(d )

x3 y3y3− y2

x3−x2(c)

c−bx3−x1

(e) e−fx3−x0

Coeficientes del Polinomio de Newton

Una vez completado el cuadro, los números que quedan en la diagonal principal son

los coeficientes del polinomio interpolador de Newton.

Cota de Error

Es igual que el término de Lagrange:

En ( x )=∏k=0

n

( x−xk )∗f n+1

(n+1 ) !

Mínimos Cuadrados

En su forma más simple, intenta minimizar la suma de los cuadrados de las

diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los

correspondientes en los datos.

El método de resolución se basa en resolver un sistema de ecuaciones dado un

conjunto de n puntos.

Si ajustamos para una función y = f (x), entonces la distancia vertical dk desde el

punto (xk, yk) hasta el punto (xk, f(xk)) es:

dk=|f (xk)− yk|

El objetivo es minimizar la suma de los cuadrados de las distancias verticales dk:

Page 25: Msa para final

E ( A ,B , …, N )=∑k=1

n

(f ( xk)− y k)2=∑k=1

n

(d k)2

El valor mínimo de la función E se determina igualando a cero las derivadas

parciales ∂ E∂ A

; ∂ E∂ B

;…; ∂ E∂ N y resolviendo las ecuaciones que resulten en A, B y todas las

constantes.

El resultado de esta operación es un conjunto de ecuaciones para resolver la cual su

resolución nos da el valor de cada constante de la expresión de ajuste adoptada.

El tipo de ajuste que vamos a utilizar estará dado por distribución de puntos y la

relación que encontremos entre ellos en el gráfico.

Ajuste Lineal

Tenemos como función de ajuste a una función lineal y=Ax+B

La función distancia que encontramos será de esta manera:

dk=A xk+B− yk

Sumando la distancia de cada punto elevada al cuadrado obtenemos:

E ( A , B )=∑k=1

n

dk2=∑

k=1

n

( A xk+B− yk )2

Derivando con respecto a A:

∂ E ( A ,B )∂ A

=∑k=1

n

2 ( A xk+B− yk )∗xk

∂ E ( A ,B )∂ A

=2∑k=1

n

( A xk2+B xk− yk xk )

Con respecto a B:

∂ E ( A , B )∂ B

=∑k=1

n

2 ( A xk+B− yk )

Page 26: Msa para final

∂ E ( A , B )∂ B

=2∑k=1

n

( A xk+B− yk )

Igualando cada derivada a cero obtenemos:

∂ E ( A ,B )∂ A

=2∑k=1

n

( A xk2+B xk− yk xk )=0

∑k =1

n

( A xk2+B xk− yk xk )=0

∑k =1

n

A xk2+∑

k=1

n

B xk−∑k=1

n

yk xk=0

A∑k=1

n

xk2+B∑

k =1

n

xk=∑k=1

n

yk xk(1)

∂ E ( A , B )∂ B

=2∑k=1

n

( A xk+B− yk )=0

∑k =1

n

( A xk+B− yk )=0

∑k =1

n

A xk+∑k=1

n

B−∑k=1

n

yk=0

A∑k=1

n

xk+B∑k =1

n

xk=∑k=1

n

yk (2)

Se debe plantear:

{A∑k=1

n

xk2+B∑

k=1

n

xk=∑k=1

n

yk xk

A∑k =1

n

xk+B∑k=1

n

xk=∑k=1

n

yk

Page 27: Msa para final

Para el cual es conveniente realizar una tabla como la que se muestra a continuación

Nº de puntos xk yk xk2 xkyk

1 X1 Y1 (X1)2 X1Y1

2 X2 Y2 (X2)2 X2Y2

3 X3 Y3 (X3)2 X3Y3

… … … … …

N Xn Yn (Xn)2 XnYn

Total Σ xk Σ yk Σ xk2 Σ xk * yk

Resolviendo el sistema encontramos los coeficientes a y b correspondientes a la

ecuación y = A x + B.

Ajuste Polinomial

Para esta secuencia, el objetivo es el mismo teniendo en cuenta que la función

modelo será:

f ( xk )=A0+ A1 xk1+ A2 xk

2+…+ Am xkm=∑

i=0

m

Ai xki

De donde Ai son los coeficientes del polinomio de ajuste. Con esta expresión,

podemos decir:

dk=|f ( xk )− yk|

E ( A0 , A1 , …, Am )=∑k=1

n

( dk )2=∑k=1

n

( f ( xk )− yk )2

E ( A0 , A1 , …, Am )=∑k=1

n

( dk )2=∑k=1

n

(∑i=0

m

Ai xki − yk )

2

Page 28: Msa para final

Como el objetivo es que los coeficientes minimicen la función, debemos derivar

esta expresión con respecto a cada coeficiente e igualarlo a cero.

∂ E∂ A i )A j

=2∑k=1

n

( A0+ A1 xk1+ A2 xk

2+…+ Am xkm− yk )∗xk

i =0

∑k =1

n

( A0 xki + A1 xk

1+i+ A2 xk2+i+…+ Am xk

m+ i− yk xki )=0

∑k =1

n

A0 xki +∑

k=1

n

A1 xk1+i+∑

k=1

n

A2 xk2+i+…+∑

k=1

n

Am xkm+ i=∑

k=1

n

yk xki

A0∑k=1

n

xki +A1∑

k=1

n

xk1+i+ A2∑

k =1

n

xk2+ i+…+Am∑

k=1

n

xkm+i=∑

k=1

n

yk xki

Esta expresión la tenemos m veces correspondientes a las m derivadas parciales de

cada constante, dándonos un sistema de ecuaciones lineales (de m ecuaciones con m

incógnitas) para resolver el cual su respuesta nos indica los coeficientes del polinomio de

ajuste.

NOTA: si los datos no muestran una naturaleza polinomial, puede ocurrir que la

curva presente oscilaciones grandes. Este fenómeno llamado oscilación polinomial se hace

más pronunciado conforme aumenta el grado del polinomio, y por esta razón, no se suelen

usar polinomios de grado 6 o mayor, a no ser que se sepa que la función de la que

provienen los datos es un polinomio.

Forma Matricial de resolución para ajuste

Nuestro objetivo es encontrar el valor de los Ai. Para ello, vamos a armar la matriz F

dela siguiente manera:

Ubicamos de forma matricial los coeficientes de cada A i y los disponemos

de la siguiente manera:

Page 29: Msa para final

…1 …

1 …

F= 1 …

… … … … …

1 …

Coeficientes de Ai

Ao A1 A2 Am

X1 X12 X1

m

Puntos

X2 X22 X2

m

X3 X32 X3

m

Xn Xn2 X1

m

Notemos que:

La primer columna son los coeficientes del término independiente por lo

tanto está multiplicada por 1

La segunda columna son los términos lineales, por lo que están

multiplicados por x

La tercera por x2

La cuarta por x3

Así hasta el polinomio de grado m.

Una vez escrita la matriz F podemos obtener su transpuesta:

1 1 1 … 1

… … … … …

Puntos

X1 X2 X3 Xn

Ft= X12 X2

2 X32 Xn

2

X1m X2

m X3m Xn

m

De estas dos matrices obtenemos lo siguiente:

A=Ft∗F

B=F t∗Y

Y es la matriz columna de los yk dela nube de puntos

Page 30: Msa para final

Una vez obtenidas ambas matrices, la expresión matricial queda definida de la

siguiente manera:

A∗C=B

De donde C es la matriz de coeficientes, sabemos que en este caso esta matriz es

una matriz fila.

Linealización de datos – Cambios de variable que linealizan datos

La técnica de linealizar los datos ha sido empleada para ajustar curvas tales como

y=C eAX , y=A ln(x)+B e y= Ax

+B a un conjunto de datos. Una vez elegido el tipo de

curva, hay que realizar un cambio de variable adecuado de manera que las nuevas variables

se relacionen linealmente Y=AX +B usando el cambio de variables y constantes.

Función Linealización Cambios de Variable

Page 31: Msa para final

y=f ( x ) Y=AX +B

y=ax+b y=a 1

x+b y=Y ; 1

x=X

b=B ;a=A

y= ax+b

y=−1b

( xy )+ ab

y=Y ;xy=X

A=−1b

;B=ab

y= 1ax+b

1y=ax+b

1y=Y ; x=X

a=A ;b=B

y= xax+b

1y=b 1

x+a

1y=Y ; 1

x=X

a=B ;b=A

y=a ln(x )+b y=a ln (x )+b y=Y ; ln (x)=Xa=A ;b=B

y=aebx ln ( y)=bx+ ln (a) ln( y)=Y ; x=Xln (a)=B ;b=A

y=a xb ln ( y)=b ln(x )+ ln(a) ln ( y)=Y ; ln(x)=Xln (a)=B ;b=A

y= (ax+b )−2y

−12 =ax+b y

−12 =Y ; x=X

a=A ;b=B

y=ax e−bx ln ( yx )=ln (a)−bx ln( y

x )=Y ; x=X

−b=A ; ln (a)=B

y= L1+a ebx ln (L

y−1)=bx+ ln(a)

ln ( Ly−1)=Y ; x=X

b=A ; ln(a)=B

Ajuste de una función a una función

Se quiere encontrar una función que se ajuste por algún criterio a la función dato.

Las razones por las cuales se quiere aproximar una función a otra puede ser:

Trabajar con una función más sencilla

Page 32: Msa para final

Realizar cálculos sobre la función encontrada: Integración, Evaluaciones,

etc.

Se planteará una función como combinación lineal de un conjunto de funciones

base1.

Como objetivo tendremos minimizar el cuadrado del área encerrada por las dos

funciones.

La cantidad de funciones base en general puede variar de 1 a 10

Dada una función ϕ(x) y un conjunto de M funciones linealmente independientes

{ f j ( x ) } el objetivo es encontrar M coeficientes {c j } tales que la función ϕ(x) definida como la

combinación lineal:

ϕ ( x )=∑j=1

M

c j∗f j ( x )

Minimice el área de los cuadrados de los errores con respecto a f(x), es decir:

E (c1 , c2 , …, cm )=∫a

b

( dk )2 dx=∫a

b

(ϕ ( x )−f ( x ) )2 dx=∫a

b

((∑j=1

M

c j∗f j ( x ))− f ( x ))2

dx

Para que E alcance un mínimo en un punto, es necesario que cada derivada parcial

en dicho punto sea cero:

∂ E∂ c i )c j

=2∫a

b

((∑j=1

M

c j∗f j ( x ))−f ( x ))∗f i ( x ) dx=0

∫a

b

((∑j=1

M

c j∗f j ( x ))− f (x ))∗f i (x ) dx=0

Realizando distributiva:

∫a

b

(∑j=1

M

c j∗f j ( x ) f i ( x ))− f ( x ) f i ( x )dx=0

1 Las funciones base son un conjunto de funciones linealmente independientes.

Page 33: Msa para final

∫a

b

(∑j=1

M

c j∗f j ( x ) f i ( x ))dx−∫a

b

f ( x ) f i (x ) dx=0

∫a

b

(∑j=1

M

c j∗f j ( x ) f i ( x ))dx=∫a

b

f ( x ) f i (x ) dx

Intercambiando el orden de la suma y la integral y sacando cj fuera de la suma

interna:

∑j=1

M

c j∫a

b

f j ( x ) f i ( x ) dx=∫a

b

f ( x ) f i ( x ) dx

Obtenemos un sistema de ecuaciones lineales de orden M x M en el que las

incógnitas son los coeficientes cj, estas ecuaciones reciben el nombre de ecuaciones

normales o ecuaciones normales de Gauss.

Observemos que el sistema se puede escribir:

A∗c=B

De donde:

A es la matriz de coeficientes en donde: Aij=∫a

b

f j ( x ) f i (x ) dx

C es la matriz de coeficientes a calcular.

B es la matriz de términos independientes: Bi=∫a

b

f (x ) f i ( x ) dx

Una observación importante es analizar lo que sucede en el caso de tener un ajuste

cuyas funciones bases sean ortogonales, es decir, que las integrales cruzadas sean cero. Se

dice que un conjunto de funciones {ϕn ,}n=0∞ es ortogonal en el intervalo [ a , b ] si:

⟨ ϕn , ϕm ⟩=∫a

b

ϕn ( x ) ϕm ( x )dx=0 ,m≠ n

En este caso la matriz de coeficientes del sistema de ecuaciones resultante queda

diagonal, con el consecuente desacoplamiento de las ecuaciones.

Page 34: Msa para final

Aij=∫a

b

f j ( x ) f i (x ) dx {¿0 si i≠ j≠ 0 si i= j

Entonces, el cálculo de los coeficientes de ajustes para una base de funciones

ortogonales resulta muy sencillo

c i=b i

Aij=∫

a

b

f ( x ) f i ( x ) dx

∫a

b

f j ( x ) f i (x ) dx

Ajuste de puntos a una combinación de funciones

Se puede hacer el mismo análisis para un conjunto N de puntos {( xk , yk )} y un

conjunto de M funciones linealmente independientes {f j ( xk )}, se trata de encontrar M

coeficientes {c j } tales que la función f(x) definida como combinación lineal

f ( x )=∑j=1

M

c j f j ( xk )

Minimice la suma de los cuadrados de los errores:

E (c1 , c2 , …, cm )=∑k=1

n

( dk )2=∑k=1

n ((∑j=1

M

c j f j ( xk))− yk)2

Para que E alcance un mínimo en un punto dado, es necesario que cada derivada

parcial en dicho punto sea cero.

∂ E∂ c i )c j

=2∑k =1

n ((∑j=1

M

c j f j ( xk ))− yk)∗f i ( xk )=0

∑k =1

n ((∑j=1

M

c j f j ( xk ))− yk)∗f i ( xk )=0

Page 35: Msa para final

Aplicando distributiva del producto:

∑k =1

n ((∑j=1

M

c j f j ( xk ) f i ( xk))− yk f i ( xk ))=0

Aplicando distributiva de la suma

∑k =1

n

∑j=1

M

c j f j ( xk ) f i ( xk )−¿∑k=1

n

yk f i ( xk )=0¿

∑k =1

n

∑j=1

M

c j f j ( xk ) f i ( xk )=¿∑k=1

n

yk f i ( xk )¿

Intercambiando el orden de la sumatoria:

∑j=1

M

∑k=1

n

c j f j ( xk ) f i ( xk )=∑k=1

n

yk f i ( xk )

∑j=1

M

c j∑k=1

n

f j ( xk ) f i ( xk )=∑k=1

n

yk f i ( xk )

Obtenemos un sistema de ecuaciones lineales de orden M x M en el que las

incógnitas son los coeficientes c j. Observemos que:

A es la matriz de coeficientes en donde: Aij=∑k =1

n

f j ( xk ) f i ( xk )

C es la matriz de coeficientes a calcular.

B es la matriz de términos independientes: Bi=∑k=1

n

y k f i ( xk )

Interpolación por Splines – Interpolación polinomial a trozos

Frecuentemente, la interpolación polinomial para un conjunto numeroso de m+1

datos {( xk ; yk )}k=0N resulta ser muy poco satisfactoria. Observamos que un polinomio de

grado N puede presentar oscilaciones muy grandes al hacerla pasar por los puntos dados.

Otra opción es ir enlazando, una detrás de otra las gráficas de un polinomio de grado bajo

Page 36: Msa para final

que solo interpolan entre dos nodos consecutivos. La unión consecutiva de todos estos

polinomios nos da un polinomio a trozos.

La interpolación por splines consiste en armar varios polinomios entre los puntos (o

nodos) de manera tal de tener una “función a tramos” que, generalmente, será continua pero

no derivable. Para m+1 puntos voy a tener m curvas de splines.

Un factor a tener en cuenta es que, el grado del polinomio de splines me da una idea

de los grados de libertad que tengo para resolver el sistema, si el grado del polinomio de

cada spline es n, necesito n+1 ecuaciones para resolver todos los coeficientes de cada

spline.

Analizando lo anterior, n+1 ecuaciones por cada spline y m curvas de spline

necesito (n+1 )∗m ecuaciones ya que este número es la cantidad de incógnitas que tengo.

Por ejemplo, si tengo 5 puntos tengo que armar 4 splines, y si cada spline es cúbica,

tengo 4 incógnitas por cada spline. Por consiguiente necesito 4*4 = 16 ecuaciones para

encontrar todos los coeficientes.

Vamos a armar las ecuaciones de cada una:

1. Si analizamos por continuidad, conozco dos puntos por cada spline (serían los

extremos de cada una) por lo que puedo formar 2*m ecuaciones.

2. Podemos obtener más ecuaciones si planteamos la continuidad en la derivada

primera (las derivadas primeras en los puntos interiores son iguales). Este planteo

me da m-1 ecuaciones ya que en los extremos no puedo calcular la continuidad

(que equivalen a dos puntos = 1 spline menos)

3. En caso de que nos sigan faltando ecuaciones, planteamos continuidad en la

derivada segunda (menos en extremos) y seguimos así hasta obtener todas las

ecuaciones necesarias.

Una vez obtenidas todas las ecuaciones, armamos el sistema de ecuaciones lineales

de forma matricial (para facilitar cuentas) y resolvemos el sistema.

Notemos que el sistema de ecuaciones lineales que es generalmente grande (de

grandes dimensiones).

Page 37: Msa para final

Ejemplo gráfico

Page 38: Msa para final

Sistemas de Ecuaciones Lineales

Introducción

Un Sistema de ecuaciones lineales es un conjunto de ecuaciones lineales (de grado

1) definidas sobre un cuerpo o un anillo conmutativo.

{ 3 x1+2 x2+ x3=12 x1+2 x2+4 x3=−2

−x1+12

x2−x3=0

El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y

x3 que satisfacen las tres ecuaciones.

En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en

forma normal como:

{ a11 x1+a12 x2+…+a1n xn=b1

a21 x1+a22 x2+…+a2n xn=b2

……………… …………………=…am1 x1+am2 x2+…+amn xn=bm

Donde los x1; x2; …; xn son las incógnitas y los números a ij∈K son los coeficientes

del sistema sobre el cuerpo K [¿R ,C ,… ] es posible reescribir el sistema separado con

coeficientes de notación matricial:

[ a11 a12 … a1n

a21 a22 … a2n

… … … …am1 am2 … amn

]∗[ x1

x2

…xn

]=[b1

b2

…bn

]O bien:

Page 39: Msa para final

A∗X=B

Donde A es una matriz m por n, X es un vector columna de longitud n y b es otro

vector columna de longitud m.

A∗X=B(mxn )∗(nx1 )=(mx 1)

Tipos de Sistema

Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que

pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:

Sistema incompatible si no tiene solución.

Sistema compatible si tiene solución, en este caso además puede distinguirse entre:

o Sistema compatible determinado cuando tiene una única solución.

o Sistema compatible indeterminado cuando admite un conjunto infinito de

soluciones.

Quedando así la clasificación:

Tipos de sistemas {Compatible { DeterminadoIndeterminado

Incompatible

Desde un punto de vista algebraico los sistemas compatibles determinados se

caracterizan porque el determinante de la matriz es diferente de cero:

SistemaCompatible determinado❑⇔

det ( A)≠ 0

Métodos para resolver sistemas de ecuaciones lineales

Un sistema de ecuaciones lineales se puede optar resolver por dos caminos:

Page 40: Msa para final

Método directo el cual implica demasiadas cuentas pero una solución segura. En

estos métodos encontramos el método de Gauss y sustitución regresiva y la

factorización triangular.

Métodos iterativos el cual las cuentas se reducen considerablemente pero puede que

la iteración no converja.

Eliminación Gaussiana y pivoteo – sustitución regresiva

Para poder resolver un sistema de ecuaciones lineales por eliminación gaussiana

necesitamos un sistema de N ecuaciones con N incógnitas. El objetico es construir una

matriz triangular superior para realizar una sustitución regresiva.

Una vez obtenida la matriz triangular superior despejamos de la última ecuación una

incógnita, la reemplazamos en la de arriba y despejamos la otra incógnita y así

sucesivamente hasta obtener todas las incógnitas a buscar.

Una de las formas más rápidas para la obtención de la matriz triangular superior es

el método de pivoteo, para el cual tenemos que seguir los siguientes pasos:

1. Ampliamos la matriz A agregándole como última columna la matriz de resultados.

2. Multiplicamos por algún escalar la primer fila de manera tal que el elemento a11 sea

el número 1 (esto no es necesario hacerlo, se hace para facilitar los cálculos).

Generalmente se divide toda esa fila por el pivote elegido.

3. Pivoteamos toda la diagonal principal hasta obtener la matriz triangular superior.

4. Resolvemos el sistema por sustitución regresiva.

Para reducir los errores de cálculo, una estrategia de pivoteo es usar como pivote el

elemento de mayor magnitud y, una vez colocado en la diagonal principal, usarlo para

eliminar los restantes elementos de su columna que estén por debajo de él.

Para resolver un sistema de N x N hace falta un total de (4 N 3+9N 2−7 N )6

operaciones aritméticas. Si N = 20 tenemos que utilizar 5910 operaciones y la propagación

de errores en los cálculos podría dar lugar a una respuesta incorrecta.

Page 41: Msa para final

Factorización triangular

Para poder aplicar la factorización triangular (o factorización LU) necesitamos una

matriz invertible.

A=LU

De donde L es una matriz triangular inferior cuya diagonal son todos 1 y U una

matriz triangular superior.

Para calcular esta factorización lo que hacemos es pivotear la matriz A hasta obtener

una matriz triangular superior. Luego, para calcular L lo que hacemos es completar la

diagonal con 1 y los elementos faltantes se calculan de la siguiente manera:

Lij=1

U ij∗A ij

Este método sale de resolver la multiplicación de LU = A

a. Pivoteo A hasta obtener matriz superior (U)

b. Lij=1

U ij∗A ij, con estos valores obtenemos L

Una vez obtenidas las dos matrices podemos reemplazar el sistema A*X = B en el

sistema equivalente LU*X = B

De este sistema nuevo podemos resolverlo de la siguiente manera:

Decir que UX = Y de donde el sistema a resolver es LY = B, calculamos Y y con

estos valores calculamos X (sabiendo que Y = UX). Todo lo resolvemos por sustitución

regresiva.

Page 42: Msa para final

Método Jacobi

Este método es utilizado para resolver los sistemas de ecuaciones lineales mucho

más rápido que por los métodos directos.

Para resolver un sistema por Jacobi necesitamos reescribir el sistema de ecuaciones

lineales.

Dado el sistema:

{ a11 x1+a12 x2+…+a1n xn=b1

a21 x1+a22 x2+…+a2n xn=b2

…………………………………=…am1 x1+am2 x2+…+amn xn=bm

Lo reescribimos de manera tal de despejar de la primera ecuación la primer

incógnita, de la segunda la segunda y así sucesivamente.

{ x1=b1−a12 x2−…−a1 n xn

a11

x2=b2−a21 x1−…−a2 n xn

a22

…=…………………………………

xn=bm−am1 x1−am2 x2−amn−1 xn−1

amn

A todas las incógnitas del lado izquierdo le ponemos el subíndice k+1 y a la de la

derecha el subíndice k.

Page 43: Msa para final

{ ( x1)k+1=b1−a12 ( x2 )k−…−a1 n ( xn )k

a11

( x2)k+1=b2−a21 ( x1 )k−…−a2 n ( xn)k

a22

…=…………………………… ……

( xn )k+1=bm−am1 ( x1 )k−am 2 ( x2 )k−amn−1 ( xn−1)k

amn

Una vez obtenido este sistema elijo un punto cualquiera inicial (P0) y lo reemplazo

en cada Xk; esto me da un nuevo punto P1. Seguimos iterando hasta que converja en un

punto que será la solución del problema.

Si la matriz de coeficientes original es diagonalmente dominante, el método de

Jacobi converge seguro.

Una matriz se dice matriz diagonalmente dominante, si en cada uno de los

renglones, el valor absoluto del elemento de la diagonal principal es mayor que la suma de

los valores absolutos de los elementos restantes del mismo renglón. A veces la matriz de un

sistema de ecuaciones no es diagonalmente dominante pero cuando se cambian el orden de

las ecuaciones y las incógnitas el nuevo sistema puede tener matriz de coeficientes

diagonalmente dominante.

|akk|>∑j=1

n

|akj|

Método Gauss - Seidel

Este método es similar al de Jacobi, con la diferencia que se acelera la convergencia.

Observemos que en el método anterior produce sucesiones que convergen

(( x1 )k ; ( x2 )k ;…; ( xn )k ). Puesto que ( x1 )k+ 1 es probablemente mejor aproximación que ( x1 )k,

sería razonable usar ( x1 )k+ 1 en vez de ( x1 )k a la hora de calcular ( x2 )k+1 y, de forma semejante,

sería mejor usar( x1 )k+ 1 e ( x2 )k+ 1 en el cálculo de ( x3 )k +1.

Page 44: Msa para final

{ x1=b1−a12 x2−…−a1 n xn

a11

x2=b2−a21 x1−…−a2 n xn

a22

…=…………………………………

xn=bm−am1 x1−am2 x2−amn−1 xn−1

amn

Con los subíndices:

{ ( x1)k+1=b1−a12 ( x2 )k−…−a1n ( xn )k

a11

( x2 )k+1=b2−a21 ( x1 )k+1−…−a2 n ( xn )k

a22

…=…………………………… ……

( xn )k+1=bm−am1 ( x1 )k+1−am2 ( x2 )k+1−amn−1 ( xn−1 )k +1

amn

Determinación de convergencia de ambos métodos de iteración

Dado el sistema de ecuaciones lineales AX = B, sin importar el método de iteración

que utilicemos (Jacobi o Gauss Seidel) podemos determinar de antemano si el sistema

converge o no para no hacer la iteración en vano.

Podemos tomar a la matriz de coeficientes A y descomponerla en su diagonal menos

su triangular inferior y su triangular superior.

A=D−L−U { JACOBI : A=D−(L+U )GAUSS−SEIDEL : A=( D−L )−U

Obtención de las matrices de Jacobi y Gauss Seidel

JACOBI GAUSS – SEIDEL

1) Escribimos el sistema de ecuaciones de manera matricial

A∗X=B

Page 45: Msa para final

2) Reemplazamos la matriz A

A=D−(L+U) A=( D−L )−U

[ D− (L+U ) ]∗X=B [ ( D−L )−U ]∗X=B

3) Distribuimos el producto

DX−( L+U ) X=B ( D−L ) X−UX=B

4) Pasamos el término restando al otro miembro

DX=B+( L+U ) X ( D−L ) X=B+UX

5) Multiplicamos por la inversa de la matriz que queda multiplicando (a izquierda)

D−1 DX=D−1 B+D−1 ( L+U ) X ( D−L )−1 ( D−L ) X=( D−L )−1 B+( D−L )−1 UX

X=D−1 B+[ D−1 ( L+U ) ] X X=( D−L )−1 B+[ ( D−L )−1 U ] X

X=C j+T j X X=CG−S+T G−S X

Observemos que los términos son:

C j=D−1 BT j=D−1 ( L+U )

CG−S= (D−L )−1 BT G−S=( D−L )−1 U

Las iteraciones convergen sí y sólo sí ρ (T )<1 de donde ρ (T ) es el radio espectral de

la matriz T.

ρ (T )=máximo autovalor

Cálculo de autovalores

Para calcular los autovalores de una matriz hay que realizar los siguientes pasos:

1. A la matriz T del método restarle un λI de donde I es la matriz identidad y tiene las

mismas dimensiones que T.

T−λI

2. A esta nueva matriz le aplicamos el determinante y la igualamos a cero

|T−λI|=0

3. Resolvemos la ecuación en función de λ. Una vez obtenidos los autovalores vemos

cual es el máximo en módulo.

Page 46: Msa para final

Corolario:

Si ‖T‖<1 para cualquier norma matricial natural, entonces la sucesión {x(k )}k=0∞ en la

ecuación x(k)=T∗x (k−1 )+C converge para cualquier vector inicial X0 a un vector X y se

satisface las siguientes cotas de error:

1¿‖x−x(k )‖≤‖T‖k∗‖x(0)−x‖

2¿‖x−x(k )‖≤ ‖T‖k

1−‖T‖∗‖x(1)−x(0)‖

SOR (Successive Over Relaxation) - Sobrerelajación

Cuando se utilizan métodos iterativos puede suceder que la sucesión no sea

convergente o ésta es muy lenta. Hay métodos para superar estas fallas, aquí estudiaremos

el método de Sobre-relajación, lo que se busca es acelerar la convergencia, sobre todo en

aquellos casos en que la matriz de los coeficientes del sistema No es estrictamente

diagonal dominante.

La fórmula para aplicar la sobre-relajación a un sistema, surge del método de Gauss

- Seidel con una ligera perturbación o modificación en las componentes recién calculadas a

través de un promedio ponderado delas dos últimas iteraciones:

x i(k +1)=(1−w ) x i

(k)+ waii

(bi−∑j=1

i−1

aij x j− ∑j=i+1

n

aij x j)El valor de w adopta valores de 0 a 2

Si w = 1, la modificación representa la forma iterativa de Gauss-Seidel

Si 0 < w < 1, la modificación se denomina sub-relajación y se emplea para

que un sistema no convergente sea convergente o apresure su convergencia.

Page 47: Msa para final

Si 1 < w < 2, la modificación se denomina SOBRE-RELAJACIÓN, la cual

está designada para acelerar la convergencia. También se le llama sobre-

relajación simultánea o sucesiva: SOR. Es aplicable a sistemas muy grandes.

Generalmente, el valor de w se determina empíricamente, para nuestros cálculos se

da de dato.

Refinamiento iterativo

Si las cuentas se realizaran con una aritmética infinita, es decir, teniendo en cuenta

todos los decimales, se encontraría la solución exacta luego de una cantidad finita de

operaciones. Para como en los hechos se utilizan computadoras para resolver grandes

sistemas de ecuaciones lineales, la solución exacta no se alcanza. Se tiene entonces una

aproximación de x0 a la solución de x del sistema de ecuaciones lineales.

Podemos definir de esta manera, un vector residuo que es la diferencia entre el

punto solución y el obtenido por la iteración:

ri=B−A xi

Partiendo del sistema matricial:

AX=B

La diferencia entre el punto de la iteración y el anterior es: x0+∆ x1

A ( x0+∆ x1 )=B

A x0+ A ∆ x1=B

A ∆ x1=B−A x0

A ∆ x1=r0

Como: A=LU

LU ∆ x1=r0

Realizando el cambio de variables: U ∆ x1=∆ y1

Page 48: Msa para final

L ∆ y1=r0

Se resuelve y se obtiene: ∆ y1

Con ese valor se obtiene el valor:∆ x1 sabiendo que: U ∆ x1=∆ y1

Luego: x1=x0+∆ x1

Este procedimiento se repite hasta alcanzar la precisión satisfactoria.

Page 49: Msa para final

Integración numérica

Definición

La integración numérica es una herramienta esencial que se usa en la ciencia

e ingeniería para obtener valores aproximados de integrales definidas que no pueden

calcularse analíticamente. Por ejemplo, en el campo de la estadística, el modelo de

Distribución Normal (campana de Gauss), para calcular la función de distribución

deberíamos integrar la función de densidad:

∫−∞

x1

σ √2 πe

−12 ( t−μ

σ )2

dt

Puesto que no hay una expresión analítica para esta función, debemos usar algún

método de integración numérica para calcular sus valores.

Tenemos como objetivo aproximar la integral definida de una función f(x) en un

intervalo [a; b] evaluando f(x) en un número finito de puntos. Supongamos que:

a=x0<x1<…<xm=b

Una función del tipo:

Page 50: Msa para final

Q [ f ]=∑k=0

M

w k f ( xk )=w0 f ( x0 )+w1 f ( x1 )+…+wM f ( xM )

De manera tal que:

∫a

b

f ( x )dx=Q [ f ]+E [ f ]

Se llama fórmula de integración numérica o cuadratura; el termino E[f] se llama

error de truncamiento de la fórmula; los valores {xk} se llaman nodos de integración o

nodos de cuadratura y los valores {wk} se llaman pesos de la fórmula.

Los nodos se eligen de diferentes maneras, dependiendo de la situación concreta en

la que queremos aplicar una fórmula.

Grados de precisión

EL grado de precisión de una fórmula de cuadratura es el primer natural “n” que

verifica E[Pi] = 0 para todos los polinomios Pi(x) de grado i ≤ n, y existe un polinomio Pn+1

tal que E[Pn+1(x)] ≠ 0.

Analizando un polinomio cualquiera arbitrario de grado i

Pi (x )=a0+a1 x1+a2 x2+…+ai xi

Notemos que:

Si i≤ n entonces la derivada Pin+1 ( x )=0 para todo x.

Si i=n+1 entonces Pn+ 1n+1 ( x )= (n+1 )! an+1 para todo x

Con lo expuesto podemos decir que la forma general del error de truncamiento es:

Page 51: Msa para final

E [ f ]=K∗f n+1 (c )

Siendo K una constante y n el grado del polinomio. La deducción de las fórmulas de

cuadratura puede hacerse a partir de la interpolación polinomial. Recordemos que existe un

único polinomio PM(x) de grado menor o igual que M que pasa por M+1 puntos dados

{( xk , yk )}k=0M cuyas abscisas están equiespaciadas.

Fórmula de cuadratura cerrada de Newton - Cotes

Cuando usamos un polinomio para aproximar la función f(x) en [a; b], de manera

que yk=f ( xk ) y luego aproximamos la integral de f(x) por la integral de PM (x). si el primer

nodo es x0=a y el último es xM =b, entonces decimos que la fórmula de Newton – Cotes es

cerrada.

Precisión de las fórmulas de Newton - Cotes

Supongamos que f(x) es suficientemente derivable, entonces el término del error de

truncamiento E[f] de las fórmulas de Newton – Cotes contienen una derivada de orden

superior adecuada evaluada en un cierto punto c perteneciente al intervalo (a; b). En pocas

palabras, derivamos hasta un grado más del orden del polinomio y lo evaluamos en un

punto c intermedio entre a y b.

Nuestro objetivo es, en primera instancia, encontrar un polinomio que se aproxima a

nuestra función a integrar. Partimos del polinomio interpolador de Lagrange PM(x) para los

nodos x0 , x1 ,…,xM que se usa para aproximar a f(x).

Recordemos el polinomio interpolador de Lagrange:

Para calcular un polinomio de grado N usamos:

P1 (x )=∑k=0

n

yk∗LN , k ( x )

Page 52: Msa para final

De donde:

LN ,k ( x )=( x−x0 ) ( x−x1 ) ( x−x2 ) … ( x−xk−1 ) ( x−xk+1 ) … ( x−x N )

( xk−x0 ) ( xk−x1 ) ( xk−x2 ) … ( xk−xk−1 ) ( xk−xk +1) … ( xk−xN )

Notemos que:

En el numerador no aparece el término ( x−xk )

En el denominador no aparece el término ( xk−xk ), es decir, que no se anule.

En pocas palabras, sacamos los términos que anulan el denominador tanto en el

numerador como en el denominador.

Con lo recordado anteriormente, podemos decir que:

f ( x ) ≈ PM ( x )=∑k=0

n

yk∗LN ,k ( x )

Una vez obtenido el polinomio, lo reemplazamos por f(x) y calculamos la integral

de la función.

∫a

b

f ( x )dx ≈∫a

b

PM ( x )dx=∫a

b

(∑k=0

n

y k∗LN ,k ( x ))d x=∑k=0

n

∫a

b

yk∗LN , k ( x ) dx

Como yk es constante, sale fuera de la integral:

∫a

b

f ( x )dx ≈∑k=0

n

yk∫a

b

LN , k (x )=∑k=0

M

w k f ( xk )

Fórmulas de cuadratura cerrada de Newton- Cotes

Reglas de Trapecios y Simpson con sus respectivos errores

Supongamos que f(x) es suficientemente derivable; entonces el término del

error de truncamiento E(f) de las fórmulas de Newton – Cotes contienen una derivada de

Page 53: Msa para final

orden superior adecuada evaluada en un cierto punto c perteneciente a (a, b). Dependiendo

del grado de precisión del polinomio obtendremos las siguientes reglas:

N = 1 Regla de Trapecios

N = 2 Regla de Simpson

N = 3 Regla 3/8 de Simpson

N = 4 Regla de Boole.

Realizaremos la demostración. Recordemos que aproximamos la función f con el

polinomio de Lagrange

f ( x ) ≈ PM ( x )=∑k=0

n

yk∗LN ,k ( x )

Entonces:

∫a

b

f ( x )dx ≈∑k=0

n

yk∫a

b

LN , k (x )=∑k=0

M

w k f ( xk )

A partir de esta expresión, dependiendo del grado del polinomio de Lagrange

obtendremos las respectivas expresiones:

Regla de Trapecios

Para la la regla de Trapecios, necesitamos dos puntos y obtenemos un polinomio de

grado 1. Su precisión es de grado 1 ya que es el máximo polinomio que podemos aproximar

perfectamente en un intervalo determinado.

f ( x ) ≈ P1 ( x )=∑k=0

1

yk∗L1 ,k ( x )

f ( x ) ≈ P1 ( x )= y0∗L1,0 (x )+ y1∗L1,1 ( x )

f ( x ) ≈y0∗x−x1

x0−x1+

y1∗x−x0

x1−x0

Entonces:

Page 54: Msa para final

∫a

b

f ( x )dx ≈∫a

b y0∗x−x1

x0−x1+

y1∗x−x0

x1−x0

Como yk es constante, sale fuera de la integral:

∫a

b

f ( x )dx ≈ y0∫a

b x−x1

x0−x1dx+ y1∫

a

b x−x0

x1−x0dx

Realizando un cambio de variable para facilitar el cálculo de la integral:

X=x0+ht derivando⇒

dX=hdt

El término x0 se lo conoce como valor inicial mientras que el término “h” se lo

conoce como paso.

Además, la variable ahora es “t”, de esta manera, para calcular un valor de xk lo que

hacemos es reemplazar a “t” por “k”:

X k=x0+hk

Si definimos que están equiespaciados podemos afirmar que:

X k−X j=( x0+hk )−( x0+hj )=h (k− j )

X−X j=( x0+ht )−( x0+hj )=h ( t− j )

∫a

b

f ( x )dx ≈ y0∫a

b x−x1

x0−x1dx+ y1∫

a

b x−x0

x1−x0dx

Reemplazando en las integrales obtenemos:

Page 55: Msa para final

∫a

b

f ( x )dx ≈ y0∫0

1 h ( t−1 )h (0−1 )

h dt+ y1∫0

1 h ( t−0 )h (1−0 )

h dt

∫a

b

f ( x )dx ≈ y0∫0

1

h (1−t ) dt+ y1∫0

1

ht dt

El valor de h es constante, sale de la integral:

∫a

b

f ( x )dx ≈ y0h∫0

1

(1−t ) dt+ y1h∫0

1

t dt

∫a

b

f ( x )dx ≈ y0h∗( t−12 t 2|

0

1

)+ y1h∗( 12 t 2|

0

1

)∫a

b

f ( x )dx ≈ y0h∗1

2+ y1

h∗12

∫a

b

f ( x )dx ≈ h2 ( y0+ y1 )

Regla de Simpson

Para la regla de Simpson, necesitamos tres puntos y obtenemos un polinomio de

grado 2. Los polinomios de grado 2 tienen una precisión de orden 3.

f ( x ) ≈ P2 ( x )=∑k =0

2

yk∗L2 , k ( x )

f ( x ) ≈ P2 ( x )= y0∗L2,0 (x )+ y1∗L2,1 ( x )+ y2∗L2,2 ( x )

f ( x ) ≈y0∗( x−x1 ) ( x−x2)( x0−x1 ) ( x0−x2 )

+y1∗( x−x0 ) ( x−x2 )( x1−x0) ( x1−x2 )

+y2∗( x−x0 ) ( x−x1 )( x2−x0 ) ( x2−x1)

Entonces:

∫a

b

f ( x )dx ≈∫a

b

( y0∗( x−x1 ) ( x−x2 )( x0−x1) ( x0−x2 )

+y1∗( x−x0 ) ( x−x2)( x1−x0 ) ( x1−x2 )

+y2∗( x−x0 ) ( x−x1 )( x2−x0 ) ( x2−x1 ) )dx

Como yk es constante, sale fuera de la integral:

∫a

b

f ( x )dx ≈ y0∫a

b ( x−x1 ) ( x−x2)( x0−x1 ) ( x0−x2)

dx+ y1∫a

b ( x−x0 ) ( x−x2)( x1−x0 ) ( x1−x2 )

dx+ y2∫a

b ( x−x0 ) ( x−x1 )( x2−x0 ) ( x2−x1 )

dx

Page 56: Msa para final

Realizando un cambio de variable para facilitar el cálculo de la integral:

X=x0+ht derivando⇒

dX=hdt

El término x0 se lo conoce como valor inicial mientras que el término “h” se lo

conoce como paso.

Además, la variable ahora es “t”, de esta manera, para calcular un valor de xk lo que

hacemos es reemplazar a “t” por “k”:

X k=x0+hk

Si definimos que están equiespaciados podemos afirmar que:

X k−X j=( x0+hk )−( x0+hj )=h (k− j )

X−X j=( x0+ht )−( x0+hj )=h ( t− j )

∫a

b

f ( x )dx ≈ y0∫a

b ( x−x1 ) ( x−x2)( x0−x1 ) ( x0−x2)

dx+ y1∫a

b ( x−x0 ) ( x−x2)( x1−x0 ) ( x1−x2 )

dx+ y2∫a

b ( x−x0 ) ( x−x1 )( x2−x0 ) ( x2−x1 )

dx

Reemplazando en las integrales obtenemos:

∫a

b

f ( x )dx ≈ y0∫0

2 h2 ( t−1 ) ( t−2 )h2 (0−1 ) (0−2 )

hdt + y1∫0

2 h2 ( t−0 ) ( t−2 )h2 (1−0 ) (1−2 )

h dt+ y2∫0

2 h2 (t−0 ) (t−1 )h2 (2−0 ) (2−1 )

h dt

El valor de h es constante, sale de la integral:

∫a

b

f ( x )dx ≈ y0h∫0

2 ( t−1 ) (t−2 )2

dt+ y1h∫0

2 (t−0 ) ( t−2 )−1

dt+ y2h∫0

2 ( t−0 ) (t−1 )2

dt

∫a

b

f ( x )dx ≈ y0h2∫0

2

( t2−3 t +2 ) dt+ y1h

−1∫02

(t 2−2t ) dt + y2h2∫0

2

(t 2−t ) dt

∫a

b

f ( x )dx ≈ y0h2∗( 1

3 t3−32 t2+2 t|

0

2)+ y1h

−1∗( 13 t 3−t 2|

0

2)+ y2h2∗( 1

3 t 3−12 t 2|

0

2)

Page 57: Msa para final

∫a

b

f ( x )dx ≈ y0

h2∗2

3+ y1

h−1

∗−4

3+ y2

h2∗2

3

∫a

b

f ( x )dx ≈ y0h3∗+ y1

43

h+ y2h3

∫a

b

f ( x )dx ≈ h3 ( y0+4 y1+ y2 )

Regla de 38 de Simpson y Boole

Para la regla de 38 de Simpson, necesitamos cuatro puntos y obtenemos un

polinomio de grado 3. Esta aproximación es de orden 3.

f ( x ) ≈ P3 ( x )=∑k=0

3

yk∗L3 , k ( x )

f ( x ) ≈ P3 ( x )= y0∗L3,0 (x )+ y1∗L3,1 ( x )+ y2∗L3,2 ( x )+ y3∗L3,3 (x )

f ( x ) ≈ y0( x−x1) ( x−x2 ) ( x−x3 )

( x0−x1 ) ( x0−x2 ) ( x0−x3 )+ y1

( x−x0 ) ( x−x2 ) ( x−x3 )( x1−x0 ) ( x1−x2 )( x1−x3 )

+ y2( x−x0 ) ( x−x1 ) ( x−x3 )

( x2−x0 ) ( x2−x1 ) ( x2−x3 )+ y3

( x−x0 ) ( x−x1 ) ( x−x2 )( x3−x0 ) ( x3−x1) ( x3−x2 )

Entonces:

∫a

b

f ( x )dx ≈∫a

b

( y0( x−x1 ) ( x−x2 ) ( x−x3 )

( x0−x1) ( x0−x2 ) ( x0−x3 )+ y1

( x−x0 ) ( x−x2 ) ( x−x3 )( x1−x0 ) ( x1−x2 ) ( x1−x3 )

+ y2( x−x0 ) ( x−x1) ( x−x3 )

( x2− x0 ) ( x2−x1 ) ( x2−x3)+ y3

( x−x0 ) ( x−x1) ( x− x2 )( x3− x0 ) ( x3−x1 ) ( x3−x2 ) )dx

Como yk es constante, sale fuera de la integral:

∫a

b

f ( x )dx ≈ y0∫a

b ( x−x1 ) ( x−x2 ) ( x−x3 )( x0−x1 ) ( x0−x2) ( x0− x3 )

dx+ y1∫a

b ( x−x0 ) ( x−x2 ) ( x−x3 )( x1−x0 ) ( x1−x2 ) ( x1−x3 )

d x+ y2∫a

b ( x−x0 ) ( x−x1) ( x−x3 )( x2− x0 ) ( x2−x1 ) ( x2−x3)

dx+ y3∫a

b ( x−x0 ) ( x−x1 ) ( x−x2 )( x3−x0 ) ( x3−x1 ) ( x3−x2 )

dx

Realizando un cambio de variable para facilitar el cálculo de la integral:

X=x0+ht derivando⇒

dX=hdt

Page 58: Msa para final

El término x0 se lo conoce como valor inicial mientras que el término “h” se lo

conoce como paso.

Además, la variable ahora es “t”, de esta manera, para calcular un valor de xk lo que

hacemos es reemplazar a “t” por “k”:

X k=x0+hk

Si definimos que están equiespaciados podemos afirmar que:

X k−X j=( x0+hk )−( x0+hj )=h (k− j )

X−X j=( x0+ht )−( x0+hj )=h ( t− j )

∫a

b

f ( x )dx ≈ y0∫a

b ( x−x1 ) ( x−x2 ) ( x−x3 )( x0−x1 ) ( x0−x2) ( x0− x3 )

dx+ y1∫a

b ( x−x0 ) ( x−x2 ) ( x−x3 )( x1−x0 ) ( x1−x2 ) ( x1−x3 )

dx+ y2∫a

b ( x−x0 ) ( x−x1 ) ( x−x3 )( x2−x0 ) ( x2−x1) ( x2−x3 )

dx+ y3∫a

b ( x−x0 ) ( x−x1 ) ( x−x2 )( x3−x0 ) ( x3−x1 ) ( x3−x2 )

dx

Reemplazando en las integrales obtenemos:

∫a

b

f ( x )dx ≈ y0∫0

3 h3 ( t−1 ) (t−2 ) (t−3 )h3 (0−1 ) (0−2 ) (0−3 )

h dt+ y1∫0

3 h3 (t−0 ) ( t−2 ) (t−3 )h3 (1−0 ) (1−2 ) (1−3 )

h dt+ y2∫0

3 h3 (t−0 ) ( t−1 ) (t−3 )h3 (2−0 ) (2−1 ) (2−3 )

h dt + y3∫0

3 h3 (t−0 ) ( t−1 ) ( t−2 )h3 (3−0 ) (3−1 ) (3−2 )

hdt

El valor de h es constante, sale de la integral:

∫a

b

f ( x )dx ≈ y0∫0

3 ( t−1 ) (t−2 ) (t−3 )−6

hdt+ y1∫0

3 ( t−0 ) (t−2 ) ( t−3 )2

hdt+ y2∫0

3 ( t−0 ) (t−1 ) (t−3 )−2

hdt+ y3∫0

3 ( t−0 ) (t−1 ) ( t−2 )6

hdt

∫a

b

f ( x )dx ≈ y0h∫0

3 t3−6 t2+11t−6−6

dt+ y1h∫0

3 t3−5 t 2+6 t2

dt+ y2h∫0

3 t 3−4 t 2+3 t−2

dt + y3 h∫0

3 t 3−3 t2+2 t6

dt

∫a

b

f ( x )dx ≈ y0h

−6∗( 14 t 4−2 t3+

112 t2−6 t|

0

3)+ y1h2∗( 1

4 t4−53 t 3+3t 2|

0

3)+ y2h

−2∗( 14 t 4−

43 t3+

32 t 2|

0

3)+ y3h6∗( 1

4 t 4−t3+t 2|0

3)

∫a

b

f ( x )dx ≈ y0h

−6∗(−9

4 )+ y1

h2∗9

4+ y2

h−2

∗(−94 )+ y3

h6∗( 9

4 )

Page 59: Msa para final

∫a

b

f ( x )dx ≈ y038

h+ y198

h+ y298

h+ y338

h

∫a

b

f ( x )dx ≈ 38

h ( y0+3 y1+3 y2+ y3 )

Para la Regla de Boole es el mismo mecanismo, quedando como expresión final.

∫a

b

f ( x )dx ≈ 245

h (7 y0+32 y1+12 y2+32 y3+7 y 4 )

Notemos que para las reglas necesitamos n+1 puntos o nodos para resolver. Y que

los nodos los tenemos que tener equidistantes

Reglas compuestas

En caso de querer usar estas reglas con más nodos nos apoyamos en que podemos

partir la integral con sumas de subintervalos y aplicar una suma de reglas. Por ejemplo:

para calcular la integral de f(x) con los límites de integración que son de x0 a x4 podemos

partir la integral y sumar las integrales partidas con los límites x0 a x1, de x1 a x2, de x2 a x3

y de x3 a x4. Cada subintegral queda definida por dos nodos por lo que cada una de ellas es

una aplicación de la regla de trapecios; y la suma de ellas se denomina Regla compuesta de

trapecios.

∫x0

x4

f ( x )dx=∫x0

x1

f ( x )dx+∫x1

x2

f ( x ) dx+∫x2

x3

f ( x ) dx+∫x3

x4

f ( x ) dx

∫x0

x4

f ( x )dx= h2 (f 0+ f 1 )+ h

2 ( f 1+f 2)+ h2 (f 2+ f 3 )+ h

2 ( f 3+ f 4 )

∫x0

x4

f ( x )dx=h2 (f 0+2 f 1+2 f 2+2 f 3+f 4 )

Page 60: Msa para final

De la misma manera, podemos usar una regla compuesta para la regla de Simpson

denominándola Regla compuesta de Simpson:

∫x0

x4

f ( x )dx=∫x0

x2

f ( x )dx+∫x2

x4

f ( x ) dx

∫x0

x4

f ( x )dx= h3 (f 0+4 f 1+ f 2 )+ h

3 ( f 2+4 f 3+ f 4 )

∫x0

x4

f ( x )dx=h3 (f 0+4 f 1+2 f 2+4 f 3+ f 4 )

Análisis de error para la regla compuesta de trapecios y Simpson

Como se mencionó anteriormente, sabemos que la aproximación de la integral

posee un término de error el cual intentaremos calcular a continuación. Para el polinomio,

su término de error será:

En ( x )=∏k=0

n

( x−xk )∗f n+1 (c )

(n+1 )!

Si analizamos el polinomio de tiene una precisión de grado 1 (regla de trapecios),

esta productoria va de 0 a 1.

E1 ( x )=∏k=0

1

( x−xk )∗f 2 (c )

2 !

Por lo tanto:

∫x0

x1

E1 ( x )=∫x0

x1 ( x−x0 ) ( x−x1 )∗f 2 ( c )2!

Como el término (x – x0) (x – x1) no cambia de signo en el intervalo [x0, x1] y f2(x)

es continua, el segundo teorema del valor medio para integrales nos dice que existe un valor

c1 tal que:

Page 61: Msa para final

∫x0

x1

E1 ( x )=f 2 (c1 )

2 ! ∫x0

x1

( x−x0 ) ( x−x1 ) dx

Realizando el cambio de variables:

∫x0

x1

E1 ( x )=f 2 (c1 )

2 ! ∫0

1

h2 (t−0 ) ( t−1 ) hdt

∫x0

x1

E1 ( x )=f 2 (c1 )

2 ! ∫0

1

h3 (t 2−t ) dt

∫x0

x1

E1 ( x )=f 2 (c1 )

2 !h3∫

0

1

(t 2−t ) dt

∫x0

x1

E1 ( x )=f 2 (c1 )

2 ! h3( 13 t3−

12 t 2|

0

1)∫x0

x1

E1 ( x )=f 2 (c1 )

2 !h3(−1

6 )El valor de h se obtiene, en un intervalo [ a , b ]

h=b−aM

Entonces:

∫x0

x1

E1 ( x )=−f 2 (c1 )

12h3=

−h f 2 (c1 )12

h2=− (b−a )∗f 2 (c )

M∗12h2

Para la regla compuesta, tenemos varios valores de c:

∫x0

x1

E1 ( x )=−(b−a )∗h2

12 ( 1M ∑

k=1

M

f 2 (ck ))∫x0

x1

E1 ( x )=−(b−a )∗h2

12 ( 1M ∑

k=1

M

f 2 (ck ))

Page 62: Msa para final

El término entre paréntesis es una media aritmética de valores de la derivada

segunda y esta función es continua, entonces podemos reemplazarlo por algún punto c

perteneciente al intervalo (a, b) quedando:

∫x0

x1

E1 ( x )=−(b−a )∗f 2 (C )¿h2

12

Para la regla de Simpson se realizan los mismos pasos:

Para el polinomio, su término de error será:

En ( x )=∏k=0

n

( x−xk )∗f n+1 (c )

(n+1 )!

Si analizamos el polinomio de grado de precisión de grado 3 (regla de simpson),

esta productoria va de 0 a 3.

E3 ( x )=∏k=0

3

( x−xk )∗f 4 (c )

4 !

Por lo tanto:

∫x0

x2

E3 ( x )=∫x0

x2 ( x−x0 ) ( x−x1 ) ( x−x2 ) ( x−x3 )∗f 4 (x )4 !

Como el término ( x−x0 ) ( x−x1 ) ( x−x2 ) no cambia de signo en el intervalo [x0, x2] y

f4(x) es continua, el segundo teorema del valor medio para integrales nos dice que existe un

valor c1 tal que:

∫x0

x2

E3 ( x )=f 4 (c1 )

4 ! ∫x0

x2

( x−x0 ) ( x−x1 ) ( x−x2) ( x−x3 ) dx

Realizando el cambio de variables:

Page 63: Msa para final

∫x0

x2

E3 ( x )=f 4 (c1 )

4 ! ∫0

2

h4 (t−0 ) (t−1 ) (t−2 ) ( t−3 ) hdt

∫x0

x2

E3 ( x )=f 4 (c1 )

4 ! ∫0

2

h5 (t 4−6 t 3+11 t 2−6 t ) dt

∫x0

x2

E3 ( x )=f 4 (c1 )

4 !h5∫

0

2

(t 4−6 t 3+11 t 2−6 t ) dt

∫x0

x2

E3 ( x )=f 4 (c1 )

4 ! h5( 15 t 5−

32 t 4+

113 t 3−3 t 2|

0

2)∫x0

x2

E2 ( x )=f 2 (c1 )

4 !h5(−4

15 )El valor de h se obtiene, en un intervalo [ a , b ]

h=b−a2 M

Entonces:

∫x0

x2

E2 ( x )=−f 4 (c1 )

90h5=

−h f 4 (c1 )90

h4=−(b−a )∗f 4 (c )

M∗180h4

Para la regla compuesta, tenemos varios valores de c:

∫x0

x2

E2 ( x )=−(b−a )∗h4

180 ( 1M ∑

k=1

M

f 4 (ck ))∫x0

x2

E2 ( x )=−(b−a )∗h4

180 ( 1M ∑

k=1

M

f 4 (ck ))El término entre paréntesis es una media aritmética de valores de la derivada

segunda y esta función es continua, entonces podemos reemplazarlo por algún punto c

perteneciente al intervalo (a, b) quedando:

∫x0

x2

E2 ( x )=−(b−a )∗f 4 (C ) ¿h4

180

Page 64: Msa para final

Cuadratura de Gauss – Legendre. Cuadratura Gaussiana

El método consiste en seleccionar los valores x1, x2, … , xn en el intervalo [a, b] y

los coeficientes c1, c2, … , cn que minimicen el error de aproximación.

Para una función arbitraria f(x) la mejor elección de estos valores será la que

maximice el grado de precisión de la formula.

∫a

b

f ( x )dx ≈∑k=0

n

yk∫a

b

LN , k (x ) dx=∑k=0

n

yk∗w k (1 )

Si los coeficientes de un polinomio se consideran también como parámetros, la clase

de polinomios de grado a lo sumo 2n-1 contiene 2n parámetros y es la clase más grande de

polinomios para la cual es razonable esperar que la ecuación anterior sea exacta.

Los valores de los xi y los coeficientes ci se calculan por el método de coeficientes

indeterminados. Por ejemplo, para que la integral sea exacta para polinomios cúbicos (n=2

por lo tanto necesito 4 parámetros) para que la función cúbica f(x) = a3x3 + a2x2 + a1x + a0

sea exacta hay que determinar cuatro números (w1, w2, x1 y x2). Para ello necesito 4

condiciones (ecuaciones) para resolver las 4 incógnitas del sistema.

F ( X )=1→

∫−1

1

1dx=2=w1∗1+w2∗1

F ( X )=x→

∫−1

1

xdx=0=w1∗x1+w2∗x2

F ( X )=x2→

∫−1

1

x dx=23=w1∗x1

2+w2∗x22

F ( X )=x3→

∫−1

1

xdx=0=w1∗x13+w2∗x2

3

Notemos que hacemos cumplir la ecuación (1) utilizando los términos que multiplican a los ai de la ecuación cúbica

Page 65: Msa para final

De las 4 ecuaciones anteriores obtenemos un sistema de ecuaciones no lineal que

tenemos que resolver:

{2=w1∗1+w2∗1

0=w1∗x1+w2∗x2

23=w1∗x1

2+w2∗x22

0=w 1∗x13+w2∗x2

3

Si resolvemos el sistema obtenemos que

−x1=x2=( 13 )

12 ≈ 0 ,5773502692

w1=w2=1

Para no tener que encontrar los nodos y pesos cada vez que aproximemos una

integral se tabularon obteniéndose la siguiente tabla:

N Nodos Coeficiente

2 ±0,5773502692 1,0000000000

3±0,7745966692

0,0000000000

0,5555555556

0,8888888889

4±0,8611361159

±0,3399810436

0,3478548451

0,6521451549

La aplicación del método de Gauss – Legendre sirve solo para integrales cuyos

límites de integración sean -1 y 1 respectivamente. Para aplicarlo en cualquier intervalo

[ a ,b ] usamos el siguiente cambio de variable:

t=a+b2

+ b−a2

x

Page 66: Msa para final

De donde:

dt=b−a2

dx

Page 67: Msa para final

Ecuaciones Diferenciales

Las ecuaciones diferenciales se usan habitualmente para construir modelos

matemáticos de problemas de la ciencia y la ingeniería. A menudo se da el caso de que no

hay una solución analítica conocida, por lo que necesitamos aproximaciones numéricas.

Si consideramos la ecuación:

dydt

=1−e−t

Esta es una ecuación diferencial porque en ella aparece la derivada dy/dt de la

“función desconocida” y = y(t). En el miembro derecho de la ecuación sólo aparece la

variable independiente t, así que las soluciones son las primitivas de 1−e−t. Resolviendo la

integral hallamos y(t).

y (t )=t+et+C

Donde C es la constante de integración. Notemos que en la solución hallada

tenemos un grado de libertad en la elección de la solución, la constante de integración C.

para encontrar una curva en particular necesitamos un punto de antemano. En un análisis en

general, somos capaces de medir cómo los cambios de una variable afectan a otra. Cuando

traducimos esto en un modelo matemático, el resultado es una ecuación diferencial que

involucra la velocidad de cambio de la función desconocida.

Cada elección de punto nos da una solución distinta por lo que la condición inicial

es como un punto anclaje de la curva correspondiente a la solución.

Condición de Lipschitz

Dado el rectángulo R={ ( t , y ): a≤t ≤b , c ≤ y ≤ d }, supongamos que f (t, y) es continua

en R. se dice que la función f verifica la condición de Lipschitz con respecto a sus variables

en R si exite una constante L > 0 tal que:

|f (t , y1 )−f (t , y2 )|≤ L|y1− y2|

Page 68: Msa para final

Para cualquier (t, y1), (t, y2) perteneciente a R. la constante L se llama constante de

Lipschitz.

Un problema de valor inicial tiene solución única si f verifica la condición de

Lipschitz.

Método de Euler

Sea [a, b] el intervalo en el que queremos hallar la solución de un problema inicial y

´= f (t, y) con y(a) = y0 que está bien planteado (cumple con la condición de Lipschitz). Hay

que advertir que, de hecho, no vamos a encontrar una función derivable que sea solución

del problema de valor inicial. Sino que construimos un conjunto finito de puntos {(tk, yk)}

que son aproximaciones de la solución.

Primeramente se parte en intervalo en subintervalos del mismo tamaño.

T k=a+hk

h=b−aM

Suponemos que y(t), y´(t) e y´´(t) son continuas, por lo que si utilizamos el teorema

de Taylor para desarrollar y(t) alrededor de t = t0, para cada t existe un c1 entre t0 y t tal que:

y ( t )= y ( t0 )+ y ´ (t 0 ) (t−t 0 )+y ´ ´ (c1 )

2 ! (t−t 0 )2

Al sustituir: y ´ (t 0)=f ( t0 , y (t0 ) ) y h=t−t 0 el resultado es:

y (t )= y ( t0 )+ f (t 0 , y (t 0 ))h+y ´ ´ ( c1 )

2!h2

Page 69: Msa para final

Si el tamaño de paso “h” es muy pequeño lo podemos despreciar por lo que nos

queda:

y ( t )= y ( t0 )+ f (t 0 , y (t 0 ))hque se llama aproximación de Euler.

Repitiendo el proceso generamos una sucesión de puntos que se aproximan a la

gráfica de la solución y = y(t). el paso general del método de Euler es:

t k+1= tk+h

yk +1= yk+hf (t k , yk )

Descripción geométrica

Si partimos del punto (t0, y0), calculamos el valor de la pendiente m0 = f(t0, y0), nos

movemos horizontalmente una distancia h y verticalmente una distancia h f(t0, y0), entonces

lo que hacemos es desplazarnos a lo largo de la recta tangente a la curva y(t) terminando en

el punto (t1, y1). Cabe mencionar que (t1, y1) no es un punto de la curva aunque sea la

aproximación que se genera. Ahora debemos usar (t1, y1), como si fuera un punto correcto

para calcular la pendiente m1 = f(t1, y1) y usar este valor para obtener el siguiente

desplazamiento vertical h f(t1, y1), que nos lleva al punto (t2, y2), y así sucesivamente.

Page 70: Msa para final
Page 71: Msa para final