Matriz definida positiva

Matriz definida positiva

En el álgebra lineal, una matriz definida positiva es una matriz hermitiana que en muchos aspectos es similar a un número real positivo.

Contenido

Definiciones equivalentes

Sea M una matriz hermitiana cuadrada n × n. De ahora en adelante denotaremos la transpuesta de una matriz o vector a como aT, y el conjugado transpuesto, a * . Esta matriz M se dice definida positiva si cumple con una (y por lo tanto, las demás) de las siguientes formulaciones equivalentes:

1. Para todos los vectores no nulos z \in \mathbb{C}^n tenemos que
\textbf{z}^{*} M \textbf{z} > 0.

Nótese que z * Mz es siempre real.

2. Todos los autovalores λi de M son positivos. (Recordamos que los autovalores de una matriz hermitiana o en su defecto, simétrica, son reales.)
3. La función
\langle \textbf{x},\textbf{y}\rangle = \textbf{x}^{*} M \textbf{y}

define un producto interno \mathbb{C}^n.

4. Todos los determinantes de los menores principales de M son positivos. O lo que es equivalente; todas las siguientes matrices tienen determinantes positivo.
  • la superior izquierda de M de dimensión 1x1
  • la superior izquierda de M de dimensión 2x2
  • la superior izquierda de M de dimensión 3x3
  • ...
  • la superior izquierda de M de dimensión (n-1)x(n-1)
  • M en sí misma
Para matrices semidefinidas positivas, todos los menores principales tienen que ser no negativos (Criterio de Silvestre o Sylvester).

Análogamente, si M es una matriz real simétrica, se reemplaza \mathbb{C}^n por \mathbb{R}^n, y la conjugada transpuesta por la transpuesta.

Propiedades

  • Toda matriz definida positiva es invertible (su determinante es positivo), y su inversa es definida positiva.
  • Si M es una matriz definida positiva y r > 0 es un número real, entonces rM es definida positiva.
  • Si M y N son matrices definidas positivas, entonces la suma M + N también lo es. Además si

MN = NM, entonces MN es también definida positiva.

  • Toda matriz definida positiva M, tiene al menos una matriz raíz cuadrada N tal que N2 = M.

Matrices definidas negativas, semidefinidas positivas e indefinidas

La matriz hermitiana M se dice:

  • definida negativa si x^{*} M x < 0\, para todos los vectores x \in \mathbb{R}^n\mathbb{C}^n) no nulos
  • semidefinida positiva si x^{*} M x \geq 0 para todo x \in \mathbb{R}^n\mathbb{C}^n)
  • semidefinida negativa si x^{*} M x \leq 0 para todo x \in \mathbb{R}^n\mathbb{C}^n)

Una matriz hermitiana se dice indefinida si no entra en ninguna de las clasificaciones anteriores.

Caso no hermitiano

Una matriz real M puede tener la propiedad xTMx > 0 para todo vector real no nulo sin ser simétrica. La matriz

 \begin{bmatrix} 1 & 1 \\ 0 & 1 \end{bmatrix}

es un ejemplo. En general, tendremos xTMx > 0 para todo vector real no nulo x si y sólo si la matriz simétrica (M + MT) / 2, es definida positiva.


Wikimedia foundation. 2010.

Игры ⚽ Нужно сделать НИР?

Mira otros diccionarios:

  • Matriz hessiana — En Matemática, la matriz hessiana de una función f de n variables, es la matriz cuadrada de n × n, de las segundas derivadas parciales. Contenido 1 Definición 2 Aplicación de la matriz hessiana 2.1 Concavidad/Convexidad …   Wikipedia Español

  • Matriz simétrica — Una matriz de elementos: es simétr …   Wikipedia Español

  • Matriz laplaciana — En teoría de grafos la matriz laplaciana también denominada matriz de admitancia o matriz de Kirchhoff es una representación matricial de un grafo. Otro tipo de representación matricial la proporciona la matriz de adyacencia, pero la matriz… …   Wikipedia Español

  • Matriz de covarianza — En estadística y teoría de la probabilidad, la matriz de covarianza es una matriz que contiene la covarianza entre los elementos de un vector. Es la generalización natural a dimensiones superiores del concepto de varianza de una variable… …   Wikipedia Español

  • Forma bilineal definida — Saltar a navegación, búsqueda En matemática, una forma bilineal definida B es una aplicación para la cual B(v, v) tiene un signo fijo (positivo o negativo) cuando el argumento v no es 0. Para dar una definición formal, sea K uno de los cuerpos R… …   Wikipedia Español

  • Raíz cuadrada — Expresión matemática de raíz cuadrada de X . La …   Wikipedia Español

  • Vector propio y valor propio — Fig. 1. En esta transformación de la Mona Lisa, la imagen se ha deformado de tal forma que su eje vertical no ha cambiado. (nota: se han recortado las esquinas en la imagen de la derecha) …   Wikipedia Español

  • Factorización de Cholesky — Saltar a navegación, búsqueda En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta como el producto de… …   Wikipedia Español

  • Distribución normal multivariante — Saltar a navegación, búsqueda Normal multivariante Función de distribución de probabilidad Parámetros (vector real) Σ matriz de covarianza (matriz real definida positiva de dimensión …   Wikipedia Español

  • Factorización de matrices — Saltar a navegación, búsqueda En álgebra lineal la factorización de una matriz es la descomposición de la misma como producto de dos o más matrices según una forma canónica. Según las aplicaciones de la factorización podemos distinguir los… …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”