Integración numérica

Integración numérica

En análisis numérico, la integración numérica constituye una amplia gama de algoritmos para calcular el valor numérico de una integral definida y, por extensión, el término se usa a veces para describir algoritmos numéricos para resolver ecuaciones diferenciales. El término cuadratura numérica (a menudo abreviado a cuadratura) es más o menos sinónimo de integración numérica, especialmente si se aplica a integrales de una dimensión a pesar de que para el caso de dos o más dimensiones (integral múltiple) también se utiliza.

El problema básico considerado por la integración numérica es calcular una solución aproximada a la integral definida:

\int_a^b f(x)\, dx

Este problema también puede ser enunciado como un problema de valor inicial para una ecuación diferencial ordinaria, como sigue:

y'(x) = f(x), \quad y(a) = 0

Encontrar y(b) es equivalente a calcular la integral. Los métodos desarrollados para ecuaciones diferenciales ordinarias, como el método de Runge-Kutta, pueden ser aplicados al problema reformulado. En este artículo se discuten métodos desarrollados específicamente para el problema formulado como una integral definida.

Contenido

Razones para la integración numérica

Hay varias razones para llevar a cabo la integración numérica. La principal puede ser la imposibilidad de realizar la integración de forma analítica. Es decir, integrales que requerirían de un gran conocimiento y manejo de matemática avanzada pueden ser resueltas de una manera más sencilla mediante métodos numéricos. Incluso existen funciones integrables pero cuya primitiva no puede ser calculada, siendo la integración numérica de vital importancia. La solución analítica de una integral nos arrojaría una solución exacta, mientras que la solución numérica nos daría una solución aproximada. El error de la aproximación, que depende del método que se utilice y de qué tan fino sea, puede llegar a ser tan pequeño que es posible obtener un resultado idéntico a la solución analítica en las primeras cifras decimales.

Métodos para integrales unidimensionales

Los métodos de integración numérica pueden ser descritos generalmente como combinación de evaluaciones del integrando para obtener una aproximación a la integral. Una parte importante del análisis de cualquier método de integración numérica es estudiar el comportamiento del error de aproximación como una función del número de evaluaciones del integrando. Un método que produce un pequeño error para un pequeño número de evaluaciones es normalmente considerado superior. Reduciendo el número de evaluaciones del integrando se reduce el número de operaciones aritméticas involucradas, y por tanto se reduce el error de redondeo total. También, cada evaluación cuesta tiempo, y el integrando puede ser arbitrariamente complicado.

De todos modos, un modo de integración por «fuerza bruta» puede hacerse siempre, de un modo muy simplista, evaluando el integrando con incrementos muy pequeños.

Métodos basados en funciones de interpolación

Hay una extensa familia de métodos que se basan en aproximar la función a integrar f(x) por otro función g(x) de la cual se conoce la integral exacta. La función que sustituye la original se encuentra de forma que en un cierto número de puntos tenga el mismo valor que la original. Como los puntos extremos forman parte siempre de este conjunto de puntos, la nueva función se llama una interpolación de la función original. Cuando los puntos extremos no se utilizan para encontrar la función que sustituye a la original entonces se dice extrapolación. Típicamente estas funciones son polinomios.

Fórmulas de Newton-Cotes

La interpolación con polinomios evaluada en puntos igualmente separados en \ [a, b] da las fórmulas de Newton-Cotes, de las que la regla del rectángulo, la del trapecio y la de Simpson son ejemplos. Si se escogen los nodos hasta k = n + 1 será la fórmula de Newton-Cotes cerrada y si se escogen k = n − 1 será la fórmula de Newton-Cotes abierta.

Regla del rectángulo

El método más simple de este tipo es hacer a la función interpoladora ser una función constante (un polinomio de orden cero) que pasa a través del punto (a,f(a)). Este método se llama la regla del rectángulo:

\int_a^b f(x) dx \sim (b-a) f(a)
Regla del punto medio
Ilustración de la regla del punto medio.

Si en el método anterior la función pasa a través del punto (\frac{a+b}{2}, f(\frac{a+b}{2})) este método se llama la regla del punto medio:

\int_a^b f(x) dx \sim (b-a) f(\frac{a+b}{2})
Regla de Simpson
Ilustración de la regla de Simpson.

La función interpoladora puede ser un polinomio de grado 2 que pasa a través de los puntos \ (a, f(a)), (\frac{a+b}{2}, f(\frac{a+b}{2})) y \ (b, f(b)). Este método se llama regla de Simpson:

 \int_{a}^{b} f(x) \, dx \approx \frac{b-a}{6}\left[f(a) + 4f\left(\frac{a+b}{2}\right)+f(b)\right].
Reglas compuestas

Para cualquier regla interpoladora, se puede hacer una aproximación más precisa dividiendo el intervalo \ [a, b] en algún número \ n de subintervalos, hallando una aproximación para cada subintervalo, y finalmente sumando todos los resultados. Las reglas que surgen de hacer esto se llaman reglas compuestas, y se caracterizan por perder un orden de precisión global frente a las correspondientes simples, si bien globalmente dan valores más precisos de la integral, a costa eso sí de incrementar significativamente el coste operativo del método. Por ejemplo, la regla del trapecio compuesta puede expresarse como:

\int_a^b f(x) dx \sim \frac{b-a}{n} \left( \frac{f(a) + f(b)}{2} + \sum_{k=1}^{n-1} f\left(a + k \frac{b-a}{n}\right) \right)

donde los subintervalos tienen la forma \ [kh, (k+1)h] con
\ h = \frac {b-a}{n}
y \ k = 0, 1, 2, \ldots, n-1.

Métodos de extrapolación

La precisión de un método de integración del tipo Newton-Cotes es generalmente una función del número de puntos de evaluación. El resultado es usualmente más preciso cuando el número de puntos de evaluación aumenta, o, equivalentemente, cuando la anchura del paso entre puntos decrece. ¿Qué pasa cuando la anchura del paso tiende a cero? Esto puede responderse extrapolando el resultado de dos o más anchuras de paso (extrapolación de Richardson). La función de extrapolación puede ser un polinomio o una función racional. Los métodos de extrapolación están descritos en más detalle por Stoer y Bulirsch (Sección 3.4). En particular, al aplicar el método de extrapolación de Richardson a la regla del trapecio compuesta se obtiene el método de Romberg.

Cuadratura de Gauss

Si se permite variar los intervalos entre los puntos de interpolación, se encuentra otro grupo de fórmulas de integración, llamadas fórmulas de cuadratura de Gauss. Una regla de cuadratura de Gauss es típicamente más precisa que una regla de Newton-Cotes que requiera el mismo número de evaluaciones del integrando, si el integrando es suave (es decir, si se puede derivar muchas veces).

Algoritmos adaptativos

Si f no tiene muchas derivadas definidas en todos sus puntos, o si las derivadas toman valores muy elevados, la integración gausiana es a menudo insuficiente. En este caso, un algoritmo similar al siguiente lo haría mejor:

def integral(f, a, b):
    """Este algoritmo calcula la integral definida de una función
    en el intervalo [a,b], adaptativamente, eligiendo pasos más
    pequeños cerca de los puntos problemáticos.
    h0 es el paso inicial."""
    
    x = a
    h = h0
    acumulador = 0
    while x < b:
        if x+h > b:  h = b - x
        if error de la cuadratura sobre [x,x+h] para f es demasiado grande:
            haz h más pequeño
        else:
            acumulador += integral(f, x, x+h)
            x += h
            if error de la cuadratura sobre [x,x+h] es demasiado pequeño:
                haz h más grande
    return acumulador

Algunos detalles del algoritmo requieren mirarlo con cuidado. Para muchos casos, estimar el error de la integral sobre un intervalo para un función f no es obvio. Una solución popular es usar dos reglas de integración distintas, y tomar su diferencia como una estimación del error de la integral. El otro problema consiste en decidir qué es «demasiado grande» o «demasiado pequeño». Un criterio posible para «demasiado grande» es que el error de la integral no sea mayor que th, donde t, un número real, es la tolerancia que queremos tener para el error global. Pero también, si h es ya minúsculo, puede no valer la pena hacerlo todavía más pequeño si el error de la integral es aparentemente grande. Este tipo de análisis de error usualmente se llama «a posteriori» ya que calculamos el error después de haber calculado la aproximación.

La heurística para integración adaptativa está discutida en Forsythe et al (sección 5.4).

Estimación del error conservativa (a priori)

Supongamos que \ f tiene una primera derivada sobre \ [a, b] acotada. El teorema del valor medio para \ f, para \ x < b, da

\ (x-a)f'(y_x) = f(x) - f(a)

para algún \ y_x en \ [a, x] dependiendo de \ x. Si integramos en \ x de \ a a \ b en ambos lados de la igualdad y tomamos valores absolutos, tenemos

\left| \int_a^b f(x) dx  - (b - a) f(a) \right| = \left| \int_a^b (x-a) f'(y_x) dx \right|

Se puede aproximar más la integral en el lado derecho metiendo el valor absoluto en el integrando, y reemplazando el término en \ f por una cota superior:

\left| \int_a^b f(x) dx  - (b - a) f(a) \right| \le \frac{(b-a)^2}{2} \sup_{a\le x \le b} \left| f'(x) \right|

Así, si aproximamos la integral \int_a^b f(x) dx por su regla de integración \ (b-a) f(a), el error no es mayor que el lado derecho de la ecuación.

Integrales múltiples

Los métodos de integración que se han comentado hasta aquí se han diseñado todos para calcular integrales de una dimensión.

Para calcular integrales de diversas dimensiones, un enfoque es expresar la integral múltiple como repetición de integrales de una dimensión haciendo uso del teorema de Fubini.

Este enfoque lleva a una cantidad de evaluaciones de la función que crece exponencialmente a medida que crece el número de dimensiones. Se conocen dos métodos para superar esta llamada maldición de la dimensión.

Montecarlo

Artículo principal: Integración de Monte Carlo

Los métodos de Montecarlo y métodos de cuasi-Montecarlo son fáciles de aplicar a integrales multidimensionales, y pueden producir una mejor exactitud por el mismo número de evaluaciones de la función que en integraciones repetidas empleando métodos unidimensionales. Una clase grande de métodos útiles de Montecarlo son los llamados algoritmos de Cadena de Markov de Montecarlo, los cuales incluyen el algoritmo de Metropolis-Hastings y muestreo de Gibbs.

Programas para integración numérica

La integración numérica es uno de los problemas estudiados más intensivamente en el análisis numérico. Entre las muchas implementaciones en programas se encuentran:

  • QUADPACK (parte de SLATEC) (código fuente): QUADPACK es una colección de algoritmos en Fortran para integración numérica basada en reglas gausianas.
  • GSL: GNU Scientific Library. La Librería Científica de GNU (GSL) es una librería numérica escrita en C que provee una amplia gama de rutinas matemáticas, como la integración por Montecarlo.
  • ALGLIB: Es una colección de algoritmos en C# / C++ / Delphi / Visual Basic / etc., para la integración numérica]].

Se pueden encontrar algoritmos de integración numérica en GAMS class H2.

Referencias

  • George E. Forsythe, Michael A. Malcolm, and Cleve B. Moler. Computer Methods for Mathematical Computations. Englewood Cliffs, NJ: Prentice-Hall, 1977. (See Chapter 5.)
  • William H. Press, Brian P. Flannery, Saul A. Teukolsky, William T. Vetterling. Numerical Recipes in C. Cambridge, UK: Cambridge University Press, 1988. (See Chapter 4.)
  • Josef Stoer and Roland Bulirsch. Introduction to Numerical Analysis. New York: Springer-Verlag, 1980. (See Chapter 3.)

Wikimedia foundation. 2010.

Игры ⚽ Поможем написать реферат

Mira otros diccionarios:

  • Integración numérica — En análisis numérico, la integración numérica constituye una amplia gama de algoritmos para calcular el valor numérico de una integral definida, y por extensión, el término se usa a veces para describir algoritmos numéricos para resolver… …   Enciclopedia Universal

  • Integración de Monte Carlo — Saltar a navegación, búsqueda En matemáticas, y más concretamente en análisis numérico, se conocen como métodos de Montecarlo a una serie de métodos de integración numérica que se basan en la utilización de números pseudoaleatorios. Es decir, los …   Wikipedia Español

  • Integración — La integral definida de una función representa el área limitada por la gráfica de la función, con signo positivo cuando la función toma valores positivos y negativo cuando toma valores negativos. Para otros usos de este término, véase Integración …   Wikipedia Español

  • Integración de Montecarlo — Este artículo o sección sobre ciencia necesita ser wikificado con un formato acorde a las convenciones de estilo. Por favor, edítalo para que las cumpla. Mientras tanto, no elimines este aviso puesto el 7 de agosto de 2007. También puedes ayudar …   Wikipedia Español

  • Métodos de integración — Este artículo o sección necesita ser wikificado con un formato acorde a las convenciones de estilo. Por favor, edítalo para que las cumpla. Mientras tanto, no elimines este aviso. También puedes ayudar wikificando otros artículos o cambiando este …   Wikipedia Español

  • Derivación numérica — Saltar a navegación, búsqueda La derivación numérica es una técnica de análisis numérico para calcular una aproximación a la derivada de una función en un punto utilizando los valores y propiedades de la misma. Por definición la derivada de una… …   Wikipedia Español

  • Método de los elementos finitos — Solución de MEF en 2D para una configuración de un magnetostato, (las líneas muestran la dirección de la densidad de flujo calculada, y el color, su magnitud) …   Wikipedia Español

  • Jesús María Sanz Serna — (12 de junio de 1953, Valladolid, España) es un matemático especializado en Matemática aplicada y pionero en integración geométrica. Es uno de los científicos españoles más citado y premiado. Ha recibido el Premio Dahlquist de la Society for… …   Wikipedia Español

  • Análisis numérico — El análisis numérico o cálculo numérico es la rama de las matemáticas que se encarga de diseñar algoritmos para, a través de números y reglas matemáticas simples, simular procesos matemáticos más complejos aplicados a procesos del mundo real. El… …   Wikipedia Español

  • Fórmulas de Newton-Cotes — Saltar a navegación, búsqueda En análisis numérico las fórmulas de Newton Cotes (nombradas así por Isaac Newton y Roger Cotes) son un grupo de fórmulas de integración numérica de tipo interpolatorio, en las cuales se evalúa la función en puntos… …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”