Solución de ecuaciones no lineales
Método de bisección
Aproximación de la raíz de una función continua en un intervalo
Si
- Si
, entonces . - Si
, entonces .
Método de Newton-Raphson
Para encontrar la raíz de
Método de la secante
Aproximación iterativa sin necesidad de calcular derivadas:
Método de la falsa posición
Similar al método de bisección, pero empleando una línea secante:
Interpolación y aproximación de funciones
Interpolación lineal
Interpolación polinomial de Lagrange
Dado un conjunto de puntos
donde
Interpolación de Newton
donde los coeficientes
Aproximación de funciones
Método de los mínimos cuadrados
Para ajustar una recta
Aproximación lineal:
Coeficientes de la recta:
Aproximación polinómica
Fórmula de Taylor
Derivación numérica
Primera derivada
Diferencias hacia adelante
Diferencias hacia atrás
Diferencias centradas
Diferencias finitas (segunda derivada)
Diferencias centradas
Integración numérica
Regla del trapecio
Aproximación de una integral en el intervalo
Regla de Simpson (1/3)
Aproximación con paridad en los subintervalos:
Cuadratura Gaussiana
Aproximación de una integral mediante una combinación lineal ponderada de valores de la función en puntos específicos:
donde
Resolución de sistemas de ecuaciones lineales
Método de eliminación de Gauss
Para un sistema
Factorización LU
Factorización de una matriz
Método de Jacobi
Iteración para resolver
Método de Gauss-Seidel
Similar al método de Jacobi, pero usa las nuevas aproximaciones a medida que se calculan:
Aproximación de autovalores y autovectores
Método de la Potencia
Para aproximar el autovalor dominante de una matriz
donde el autovalor aproximado es:
Método QR
Descomposición QR de una matriz
Métodos de resolución de ecuaciones diferenciales ordinarias
Método de Euler
Para resolver
donde
Método de Runge-Kutta de orden 4
Para resolver
Método de Adams-Bashforth
Método de varios pasos para resolver
donde
Métodos de resolución de ecuaciones diferenciales parciales
Método de diferencias finitas
Aproximación de ecuaciones diferenciales parciales utilizando diferencias finitas en las derivadas
Para una ecuación de tipo parabolico, como la ecuación de calor:
La discretización puede ser:
Método de elementos finitos
Utilizado para resolver ecuaciones diferenciales parciales mediante el análisis variacional: El dominio se divide en elementos, y se utiliza funciones de forma para aproximar la solución:
donde
Método de Galerkin
Se basa en el principio de que la solución aproximada minimiza el residuo de la ecuación diferencial en un espacio de funciones:
para toda función
Análisis de Errores
Error absoluto
Definido como la diferencia entre el valor exacto y el valor aproximado:
Error relativo
Proporción del error absoluto al valor exacto:
Convergencia
Un método se dice que converge si, a medida que se reduce el tamaño del paso (o el número de iteraciones), la solución aproximada se acerca a la solución exacta:
Estimación de errores
En métodos numéricos, el error puede estimarse mediante la derivación de fórmulas de Taylor, donde se obtienen términos que representan el error:
Análisis de estabilidad
Criterio de Estabilidad de Von Neumann
Para un método numérico, se considera estable si las perturbaciones en los datos iniciales no crecen exponencialmente en el tiempo. Para un método de diferencias finitas, se evalúa:
donde
Criterio de Cauchy
Un problema es considerado bien planteado si:
- La solución existe.
- La solución es única.
- La solución depende de manera continua de los datos iniciales.
Optimización numérica
Método del Gradiente
Para minimizar una función
donde
Método de Newton
Utiliza la segunda derivada para encontrar un mínimo:
Programación lineal (método simplex)
Para maximizar (o minimizar) una función lineal
Errores numéricos
Tipos de errores
Error absoluto
donde
Error relativo
Tasa de convergencia
Tasa de convergencia
Si
donde