Función de verosimilitud

Función de verosimilitud

En estadística, la función de verosimilitud (o, simplemente, verosimilitud) es una función de los parámetros de un modelo estadístico que permite realizar inferencias acerca de su valor a partir de un conjunto de observaciones.

No debe confundirse con el término probabilidad: ésta permite, a partir de una serie de parámetros conocidos, realizar predicciones acerca de los valores que toma una variable aleatoria.

En cierto sentido, la verosimilitud es una versión inversa de la probabilidad condicional. Conocido un parámetro B, la probabilidad condicional de A es P(A|B), pero si se conoce A, pueden realizarse inferencias sobre el valor de B gracias al teorema de Bayes, según el cual

P(B \mid A) = \frac{P(A \mid B)\;P(B)}{P(A)}.\!

La función de verosimilitud, L( b |A), definida como

L(b \mid A) = P(A \mid B=b), \!

desempeña el mismo papel bajo un enfoque no bayesiano. De hecho, lo relevante no es el valor en sí de L( b |A) sino la razón de verosimilitudes,

\frac{L(b_2 | A)}{L(b_1 | A)} \!,

que permite comparar cuanto más verosímil es el parámetro b1 que el b2 a la hora de explicar el evento A. De ahí que en ocasiones se entienda que la función de verosimilitud, más que una función en sí, sea la clase de funciones

L(b \mid A) = \alpha \; P(A \mid B=b) \!,

donde α es una constante de proporcionalidad.

La función de verosimilitud, abundando en los razonamientos anteriores, abre la vía para dos técnicas muy habituales en inferencia estadística: las de la máxima verosimilitud y la del test de la razón de verosimilitudes.

Contenido

Ejemplo

Se considera una moneda de la que se desconoce la probabilidad p de que al lanzarla salga cara. La moneda se lanza cuatro veces y se obtiene la siguiente serie: HTHH (cara-cruz-cara-cara: H y T denotan head y tail, los equivalentes de cara y cruz en español). Entonces,

P(HTHH \mid p ) = p^3 (1-p).

La función de verosimilitud sería entonces

L(p) = L( p \mid HTHH ) = p^3 (1-p),

que nos permite intuir, por ejemplo, que el valor 0,6 para p es más verosímil que el valor 0,5 dado que

\frac{L(0,6)}{L(0,5)} = 1,3824 \ge 1.

Es razonable en este caso dar por bueno el valor 0.75 para p dado que dicho valor es el que maximiza el valor de la función de verosimilitud. Este razonamiento es la base del método de estimación de parámetros por máxima verosimilitud.

Función de verosimilitud para distribuciones continuas

En los casos anteriores, los eventos considerados tenían una probabilidad p estrictamente mayor que cero. Pero cuando la noción de verosimilitud se extiende a variables aleatorias con una función de densidad f sobre, por ejemplo, el eje real, la probabilidad de un evento cualquiera es nula. Por ejemplo, supóngase el caso de tener una variable aleatoria real de distribución desconocida X de la se extrae una muestra x1,...,xn de observaciones independientes. Supóngase también que se dispone de una familia parametrizada de funciones de densidad fθ(x) (es decir, que existe una función de densidad fθ(x) para cada valor del parámetro θ(x)).

En este caso, θ(x) juega el papel de parámetro desconocido y es razonable definir la función de verosimilitud L(θ) de la siguiente manera:

L(\theta) = L( \theta \mid x_1,...,x_n ) = \prod_i f_\theta(x_i).

Esta definición puede razonarse a partir de la original a través de un proceso de aproximación sustituyendo el evento X = xi de probabilidad nula por x_i - \epsilon \le X \le x_i + \epsilon de probabilidad mayor o igual que cero y haciendo tender \epsilon a cero.

Discusiones similares pueden aplicarse a los casos en que la variable aleatoria X tenga una distribución que sea un híbrido entre una variable continua y discreta. Esta situación se presenta a menudo en la práctica en el análisis de supervivencia cuando hay observaciones censuradas.

Notas históricas

La noción de verosimilitud procede del término inglés likelihood que, desde sus orígenes estuvo vinculado al concepto de probabilidad, probability, aunque denotando un vínculo de causalidad más débil. La comparación de hipótesis a través de la evaluación de verosimilitudes puede encontrarse en obras tan tempranas como Aeropagitica de John Milton: when greatest likelihoods are brought that such things are truly and really in those persons to whom they are ascribed.

Sin embargo, el uso más moderno del término apareció en las obras de Thiele, a quien se atribuye la invención, y Peirce. La fijación del término tal y como lo conocemos hoy en día es, sin embargo, obra de R.A. Fisher, que trata de él en su artículo On the mathematical foundations of theoretical statistics.[1]

Véase también

Referencias

  1. Fisher,R.A. (1922). «On the mathematical foundations of theoretical statistics». Philosophical Transactions of the Royal Society of London. Series A 222. http://digital.library.adelaide.edu.au/dspace/handle/2440/15172. 

Wikimedia foundation. 2010.

Игры ⚽ Поможем сделать НИР

Mira otros diccionarios:

  • Verosimilitud — Para su acepción en estadística, véase función de verosimilitud. La verosimilitud es la credibilidad o congruencia de un elemento determinado dentro de una obra de creación concreta. Se dice que un elemento es verosímil cuando se considera que es …   Wikipedia Español

  • Máxima verosimilitud — En estadística, la estimación por máxima verosimilitud (conocida también como EMV y, en ocasiones, MLE por sus siglas en inglés) es un método habitual para ajustar un modelo y encontrar sus parámetros. Contenido 1 Historia 2 Fundamento 3… …   Wikipedia Español

  • Distribución normal — Saltar a navegación, búsqueda Distribución normal Función de densidad de probabilidad La línea verde corresponde a la distribución normal estandar Función de distribución de probabilidad …   Wikipedia Español

  • Familia exponencial — Saltar a navegación, búsqueda En probabilidad y estadística, la familia exponencial es una clase de distribuciones de probabilidad cuya formulación matemática puede expresarse de la manera que se especifica debajo. Esta formulación confiere a las …   Wikipedia Español

  • Inferencia bayesiana — La inferencia bayesiana se aplica a muchos dominios de la teoría de la decisión La inferencia bayesiana es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una… …   Wikipedia Español

  • Divergencia de Kullback-Leibler — Saltar a navegación, búsqueda En teoría de la probabilidad la divergencia de Kullback Leibler es un indicador de la similitud entre dos funciones de distribución. Dentro de la teoría de la información también se la conoce como divergencia de la… …   Wikipedia Español

  • Estimador — Saltar a navegación, búsqueda En estadística, un estimador es un estadístico (esto es, una función de la muestra) usado para estimar un parámetro desconocido de la población. Por ejemplo, si se desea conocer el precio medio de un artículo (el… …   Wikipedia Español

  • Modelo lineal generalizado — En estadística, el modelo lineal generalizado (MLG) es una flexible generalización de la regresión de mínimos cuadrados ordinaria. Relaciona la distribución aleatoria de la variable dependiente en el experimento (la «función de distribución») con …   Wikipedia Español

  • Puesta en escena — Saltar a navegación, búsqueda El concepto de puesta en escena es un concepto utilizado por los teóricos del teatro, cine y la televisión. En resumen, se puede decir que es el momento que coincide con la entrada y salida de los personajes al marco …   Wikipedia Español

  • Máquina de Boltzmann — Una máquina de Boltzmann es un tipo de red neuronal recurrente estocástica. El nombre le fue dado por los investigadores Geoffrey Hinton y Terry Sejnowski. Las máquinas de Boltzmann pueden considerarse como la contrapartida estocástica y… …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”