Sistemas de ecuaciones

Introducción

En este capítulo se estudian los sistemas de ecuaciones diferenciales ordinarias. En particular, se centra en sistemas que cumplen las siguientes propiedades:

  1. Cada ecuación puede expresarse en forma normal.
  2. El número de ecuaciones es igual al número de incógnitas.

Además, se demostrará que ecuaciones de grado superior se pueden reducir a ecuaciones de orden uno. Los casos más generales quedan fuera del ámbito de estos apuntes. Un sistema de este tipo se expresa en la forma:

Definición 4.1 (Sistema de ecuaciones diferenciales de primer orden) Un sistema de ecuaciones diferenciales ordinarias de primer orden es un conjunto de ecuaciones de la forma

\[ \begin{cases} \dfrac{dy_1}{dx}=f_1\bigl(x,y_1,\dots,y_n\bigr),\\[6pt] \dfrac{dy_2}{dx}=f_2\bigl(x,y_1,\dots,y_n\bigr),\\[6pt] \vdots\\[6pt] \dfrac{dy_n}{dx}=f_n\bigl(x,y_1,\dots,y_n\bigr). \end{cases} \]

donde \(f_1,\dots,f_n : I \times \mathbb{R}^n \to \mathbb{R}\) son funciones dadas, \(y_1,\dots,y_n\) son las incógnitas y \(I\subseteq\mathbb{R}\) es el intervalo de la variable independiente \(x\).

Soluciones

Las soluciones de este sistema serán funciones vectoriales donde cada cordenada es solución de la correspondiente ecuación diferencial.

Definición 4.2 (Solución de un sistema) Sea \(\mathbf{y}(x)=(y_1(x),\dots,y_n(x))\) definida en un intervalo \(I\subset\mathbb{R}\) y con valores reales, es solución si \[ y_i'(x)=f_i\bigl(x,y_1(x),\dots,y_n(x)\bigr)A \]

para todo \(x\in I\) y \(i=1,\dots,n\).

Ejemplo 4.1 Si \(y_1(x)=y_2(x)=e^{3x}\), la función \((y_1,y_2)\) es una solución del sistema \[ \begin{cases} \dfrac{dy_1}{dx}=4y_1-y_2,\\[6pt] \dfrac{dy_2}{dx}=y_1+2y_2, \end{cases} \]

Solución. Es fácil comprobar que es solución ya que:

\[ y_1'=3e^{3x}=4y_1-y_2,\quad\text{y}\quad y_2'=3e^{3x}=y_1+2y_2. \]

Conversión de orden superior a sistema de primer orden

Toda ecuación diferencial ordinaria de orden \(n\) se puede reducir a un sistema equivalente de \(n\) ecuaciones de primer orden.

Proposición 4.1 (Reducción de orden superior a sistema de primer orden) Cualquier ecuación diferencial ordinaria de orden \(n\) se puede reducir a un sistema equivalente de \(n\) ecuaciones de primer orden.

Para ello, es suficiente definir las variables

\[ y_1 = y,\quad y_2 = y', \dots, y_n = y^{(n-1)}, \tag{4.1}\]

la función vectorial \((y_1, \dots, y_n)\) es una solución del sistema de \(n\) ecuaciones diferenciales de primer orden

\[ \begin{cases} \dfrac{dy_1}{dx} = y_2\\[6pt] \dfrac{dy_2}{dx} = y_3\\[6pt] \vdots\\[6pt] \dfrac{dy_n}{dx} = f\bigl(x, y_1, y_2, \dots, y_n\bigr) \end{cases} \tag{4.2}\]

Ejemplo 4.2 Consideremos la ecuación diferencial de tercer orden:

\[ y''' - 2y'' + y' - 3y = \sin(x) \]

Solución. Para convertirla a un sistema de primer orden, definimos:

\[ y_1 = y, \quad y_2 = y', \quad y_3 = y'' \]

Derivando cada variable: \[ \begin{aligned} y_1' &= y' = y_2\\ y_2' &= y'' = y_3\\ y_3' &= y''' = 2y'' - y' + 3y + \sin(x) = 2y_3 - y_2 + 3y_1 + \sin(x) \end{aligned} \]

El sistema equivalente de 3 ecuaciones de primer orden es:

\[ \begin{cases} \dfrac{dy_1}{dx} = y_2\\[6pt] \dfrac{dy_2}{dx} = y_3\\[6pt] \dfrac{dy_3}{dx} = 3y_1 - y_2 + 2y_3 + \sin(x) \end{cases} \]

Nota: La reducción permite convertir un sistema de ecuaciones de grado \(n\) en un sistema de ecuaciones de grado 1.

Ejemplo 4.3 Consideremos el sistema de dos ecuaciones diferenciales de segundo orden:

\[ \begin{cases} y'' + x = 0\\[6pt] x'' + y = 0 \end{cases} \]

Solución. Se definen nuevas variables para las derivadas:

\[ y_1 = y, \quad y_2 = y', \quad x_1 = x, \quad x_2 = x' \]

Entonces: \[ \begin{aligned} y_1' &= y' = y_2\\ y_2' &= y'' = -x = -x_1\\ x_1' &= x' = x_2\\ x_2' &= x'' = -y = -y_1 \end{aligned} \]

Por lo tanto, el sistema equivalente de 4 ecuaciones de primer orden es:

\[ \begin{cases} \dfrac{dy_1}{dt} = y_2\\[6pt] \dfrac{dy_2}{dt} = -x_1\\[6pt] \dfrac{dx_1}{dt} = x_2\\[6pt] \dfrac{dx_2}{dt} = -y_1 \end{cases} \]

Sistemas Lineales de dimensión \(n\)

Un sistema lineal es el sistema formado por ecuaciones lineales:

Definición 4.3 (Sistema lineal) Un sistema de ecuaciones lineales de primer orden es aquel en el que las funciones \(f_1, \dots, f_n\) son lineales en las variables \(y_1, \dots, y_n\). La forma general de estos sistemas es:

\[ \begin{cases} \dfrac{dy_1}{dx} = a_{11}(x)y_1 + a_{12}(x)y_2 + \cdots + a_{1n}(x)y_n + b_1(x)\\[6pt] \dfrac{dy_2}{dx} = a_{21}(x)y_1 + a_{22}(x)y_2 + \cdots + a_{2n}(x)y_n + b_2(x)\\[6pt] \vdots\\[6pt] \dfrac{dy_n}{dx} = a_{n1}(x)y_1 + a_{n2}(x)y_2 + \cdots + a_{nn}(x)y_n + b_n(x) \end{cases} \tag{4.3}\]

donde las funciones \(a_{ij}\) y \(b_i\), con \(i, j = 1, 2, \dots, n\), son funciones continuas en un cierto intervalo \(I\subset\mathbb{R}\).

Además, si \(b_1 = b_2 = \cdots = b_n \equiv 0\), el sistema se dice que es homogéneo; en caso contrario se dice que es no homogéneo.

Forma matricial

El sistema anterior puede expresarse de manera compacta mediante notación matricial. En esta forma, el sistema se escribe como:

\[ \begin{pmatrix} y_1' \\ y_2' \\ \vdots \\ y_n' \end{pmatrix} = \begin{pmatrix} a_{11}(x) & a_{12}(x) & \cdots & a_{1n}(x) \\ a_{21}(x) & a_{22}(x) & \cdots & a_{2n}(x) \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1}(x) & a_{n2}(x) & \cdots & a_{nn}(x) \end{pmatrix} \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix} + \begin{pmatrix} b_1(x) \\ b_2(x) \\ \vdots \\ b_n(x) \end{pmatrix} \tag{4.4}\]

Identificando la función vectorial \(\mathbf{y}(x) = \bigl(y_1(x), \dots, y_n(x)\bigr)\) con el vector columna correspondiente, la expresión anterior se reduce a la forma compacta:

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y} + \mathbf{b}(x) \tag{4.5}\]

donde \(\mathbf{A}(x)\) es la matriz \(n \times n\) de coeficientes

\[ \mathbf{A}(x) = \begin{pmatrix} a_{11}(x) & a_{12}(x) & \cdots & a_{1n}(x) \\ a_{21}(x) & a_{22}(x) & \cdots & a_{2n}(x) \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1}(x) & a_{n2}(x) & \cdots & a_{nn}(x) \end{pmatrix} \]

y \(\mathbf{b}(x) = \bigl(b_1(x), \dots, b_n(x)\bigr)\) es el vector de términos no homogéneos.

Conversión de sistema a ecuación de orden superior

Algunos sistemas lineales se pueden convertir en una ecuación de orden superior, lo que proporciona un método alternativo de resolución aprovechando las técnicas ya estudiadas para ecuaciones de orden superior. Este método se llama método de eliminación.

Por ejemplo, dado un sistema lineal con coeficientes constantes:

\[ \begin{cases} \dfrac{dy_1}{dx} = a_{11}y_1 + a_{12}y_2 + \cdots + a_{1n}y_n + b_1(x)\\[6pt] \dfrac{dy_2}{dx} = a_{21}y_1 + a_{22}y_2 + \cdots + a_{2n}y_n + b_2(x)\\[6pt] \vdots\\[6pt] \dfrac{dy_n}{dx} = a_{n1}y_1 + a_{n2}y_2 + \cdots + a_{nn}y_n + b_n(x) \end{cases} \]

Derivando sucesivamente la primera ecuación y sustituyendo las demás ecuaciones del sistema, se puede eliminar las variables \(y_2, \dots, y_n\) y obtener una ecuación diferencial de orden \(n\) en la variable \(y_1\). Una vez resuelta esta ecuación, las demás variables se recuperan por derivación y sustitución.

Ejemplo 4.4 Convertir el siguiente sistema lineal a una ecuación de orden superior:

\[ \begin{cases} \dfrac{dy_1}{dx} = y_2\\[6pt] \dfrac{dy_2}{dx} = -y_1 \end{cases} \]

Solución. De la primera ecuación: \(y_2 = y_1'\)

Derivando: \(y_2' = y_1''\)

Sustituyendo en la segunda ecuación:

\[ y_1'' = -y_1 \]

Esta es una ecuación diferencial lineal de segundo orden homogénea con coeficientes constantes:

\[ y_1'' + y_1 = 0 \]

cuya solución general es:

\[ y_1(x) = C_1 \cos(x) + C_2 \sin(x) \]

Y por tanto:

\[ y_2(x) = y_1'(x) = -C_1 \sin(x) + C_2 \cos(x) \]

Ejemplo 4.5 Convertir el siguiente sistema lineal de tres ecuaciones en una ecuación diferencial de orden superior:

\[ \begin{cases} x' = y, \\[6pt] y' = z, \\[6pt] z' = -x. \end{cases} \]

Solución. De la primera ecuación, se tiene: \[ y = x'. \]

Derivando y sustituyendo en la segunda: \[ z = y' = x''. \]

Derivando otra vez y sustituyendo en la tercera: \[ x''' = -x. \]

Por tanto, el sistema es equivalente a la ecuación diferencial de orden 3: \[ x''' + x = 0. \]

Estructura del conjunto de soluciones

Al igual que en el caso de las ecuaciones de orden superior, en esta sección se analiza la estructura del conjunto de soluciones de los sistemas lineales, tanto homogéneos como no homogéneos.

Sistemas homogéneos

La estructura de las soluciones de un sistema lineal homogéneo de dimensión n es un espacio vectorial de dimensión n. Para describir completamente un espacio vectorial es suficiente una base que es un conjunto de cardinal mínimo cuyas combinaciones lineales forman el espacio.

Esta sección presenta los siguientes resultados principales:

  1. La estructura del espacio de soluciones es espacio vectorial (Principio de superposición).
  2. Criterio necesario y suficiente de dependencia lineal (Criterio del Wronskiano) .
  3. La dimensión del espacio es igual a la dimensión del sistema.

Gracias a estos tres resultados se podrá encontrar una base del espacio y gararantizar de que se han hallado todas las soluciones posibles.

Principio de superposición

El principio de superposición garantiza que el conjunto de soluciones de un sistema lineal homogéneo es cerrado bajo combinaciones lineales. Esto implica que las soluciones forman un espacio vectorial: cualquier combinación lineal de soluciones es también solución. En consecuencia, el conjunto de soluciones constituye un subespacio vectorial de \(C^1(I, \mathbb{R}^n)\), el espacio de las funciones de clase \(C^1\) definidas en \(I \subset \mathbb{R}\) y con valores en \(\mathbb{R}^n\).

Teorema 4.1 (Principio de superposición) Si \(\mathbf{y}_1, \dots, \mathbf{y}_m\) son soluciones del sistema lineal homogéneo

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y} \tag{4.6}\]

en un intervalo \(I\) y \(c_1, \dots, c_m \in \mathbb{R}\), entonces la combinación lineal

\[ \mathbf{y} = c_1\mathbf{y}_1 + \cdots + c_m\mathbf{y}_m \]

también es una solución del sistema en \(I\).

Demostración. El resultado es consecuencia de la linealidad de la derivada. Sea \[ \mathbf{y}(x) = \sum_{i=1}^m c_i\, \mathbf{y}_i(x), \] entonces \[ \mathbf{y}'(x) = \sum_{i=1}^m c_i\, \mathbf{y}_i'(x). \]

Como \(\mathbf{y}_1,\dots,\mathbf{y}_m\) son soluciones del sistema homogéneo \[ \mathbf{y}' = A(x)\mathbf{y}, \] se cumple \[ \mathbf{y}_i'(x) = A(x)\,\mathbf{y}_i(x), \qquad i=1,\dots,m. \]

Por tanto, \[ \mathbf{y}'(x) = \sum_{i=1}^m c_i\, \mathbf{y}_i'(x) = \sum_{i=1}^m c_i\, A(x)\mathbf{y}_i(x) = A(x)\sum_{i=1}^m c_i\, \mathbf{y}_i(x) = A(x)\mathbf{y}(x). \]

Así, \(\mathbf{y}\) satisface el sistema y es también solución en \(I\).

Criterio necesario y suficiente de dependencia lineal para soluciones

Para encontrar una base, es fundamental disponer de un criterio que permita determinar si un conjunto de soluciones es linealmente independiente. En el caso de sistemas lineales homogéneos, existe un criterio algebraico sencillo basado en el wronskiano: un determinante construido a partir de las funciones solución. Este criterio establece una equivalencia completa entre la independencia lineal de las soluciones y la no anulación del wronskiano, proporcionando así una herramienta práctica y verificable para identificar conjuntos fundamentales de soluciones.

Dependencia e independencia lineal

Definición 4.4 (Dependencia lineal) Un conjunto de funciones vectoriales \(\{\mathbf{y}_1, \dots, \mathbf{y}_n\}\) se dice que es linealmente dependiente en un intervalo \(I\) si existen constantes reales \(c_1, \dots, c_n\), no todas nulas, tales que

\[ c_1\mathbf{y}_1(x) + \cdots + c_n\mathbf{y}_n(x) = \mathbf{0} \tag{4.7}\]

para todo \(x \in I\). Si el conjunto de funciones no es linealmente dependiente se dice que es linealmente independiente.

Wronskiano

Definición 4.5 Dadas \(n\) funciones vectoriales \(\mathbf{y}_1, \dots, \mathbf{y}_n\),

\[ \mathbf{y}_j = (y_{1j}, \dots, y_{nj}), \quad j = 1, \dots, n, \]

se define el wronskiano de \(\mathbf{y}_1, \dots, \mathbf{y}_n\) como el determinante

\[ W[\mathbf{y}_1, \dots, \mathbf{y}_n] = \det \begin{pmatrix} y_{11} & y_{12} & \cdots & y_{1n} \\ y_{21} & y_{22} & \cdots & y_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ y_{n1} & y_{n2} & \cdots & y_{nn} \end{pmatrix} \]

Wronskiano y dependencia lineal

La relación más sencilla entre dependencia lineal y el wronskiano es que soluciones linealmente dependientes entonces el Wronskiano se anula en todo el intervalo.

Proposición 4.2 (Wronskiano y dependencia lineal) Sean \(\mathbf{y}_1, \dots, \mathbf{y}_n\) funciones vectoriales derivables en un intervalo \(I\) entonces:

\[ \mathbf{y}_1, \dots, \mathbf{y}_n \text{ son linealmente dependientes} \Rightarrow W(x) \equiv 0 \]

Demostración. Como son linealmente dependiente, existe \(c=(c_1,\dots,c_n)^{\mathsf T}\neq \mathbf{0}\) tal que \[ c_1\mathbf{y}_1(x)+\cdots+c_n\mathbf{y}_n(x)=\mathbf{0}\quad \text{para todo } x\in I. \] Por lo tanto:

\[ \mathbf{y}_1(x) = - \sum_{i=2}^n \dfrac{c_i}{c_1}\,\mathbf{y}_i(x) \]

Además, los determinantes son invariantes ante sumas de columnas:

\[ 0 = W[\mathbf{0}, c_2\mathbf{y}_2 \dots, c_n\mathbf{y}_n]= W[c_1\mathbf{y}_1 +\sum_{i=2}^n \dfrac{c_i}{c_1}\,\mathbf{y}_i(x), \dots, c_n\mathbf{y}_n] = W[\mathbf{y}_1, \dots, \mathbf{y}_n] \equiv 0 \]

Teorema de Abel

Teorema 4.2 (Teorema de Abel) Si \(\mathbf{y}^{(1)}, \dots, \mathbf{y}^{(n)}\) son soluciones del sistema lineal homogéneo

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y} \tag{4.8}\]

en un intervalo en un intervalo \(I\), entonces el wronskiano \(W(x) = W[\mathbf{y}^{(1)}, \dots, \mathbf{y}^{(n)}]\) o bien es idénticamente nulo o bien nunca se anula en dicho intervalo.

Demostración. La regla de Jacobi permite evaluar la derivada del determinante: \[ \frac{d}{dx}\det(X) = \det(X)\,\operatorname{tr}\!\big(X'(x)\,X(x)^{-1}\big). \]

Sea \(\mathbf{A}(x) = (a_{ij}(x))\) la matriz de coeficientes del sistema y sea \(Y\) la matriz formada por las soluciones \(\mathbf{y}^{(1)}, \dots, \mathbf{y}^{(n)}\) entonces:

\[ \frac{dW}{dx} = W\,\operatorname{tr}\!\bigl(X'(x)\,X(x)^{-1}\bigr) = W\,\operatorname{tr}\!\bigl(A \, X(x) \, X(x)^{-1}\bigr) = W\,\operatorname{tr}\!\bigl(A\bigr) \tag{4.9}\]

Definiendo \(p(x) = \text{tr}(\mathbf{A}(x))\), la ecuación anterior es una ecuación diferencial lineal de primer orden

\[ \frac{dW}{dx} = p(x) W \]

cuya solución general es

\[ W(x) = c \exp\left(\int p(x)\, dx\right) = c \exp\left(\int \text{tr}(\mathbf{A}(x))\, dx\right) \tag{4.10}\]

donde \(c\) es una constante.

Esta ecuación conocida como fórmula de Abel demuestra que el wronskiano o bien es idénticamente nulo o bien nunca se anula en el intervalo.

Corolario 4.1 (Criterio del Wronskiano para dependencia e independencia lineal) Si \(y_1, \dots, y_n\) son soluciones de la misma ecuación diferencial lineal homogénea entonces:

\[ \begin{aligned} W(x_0)\neq 0 &\iff \text{linealmente independientes en todo } I,\\[6pt] W(x_0)=0 &\iff \text{linealmente dependientes en todo } I. \end{aligned} \]

Demostración. La demostración se basa en el Teorema de Abel Teorema 4.2 y en un paso adicional que garantiza que \(W \equiv 0 \Rightarrow\) dependencia lineal global, ya que por unicidad de soluciones los coeficientes de combinación deben ser constantes.

Por el Teorema de Abel, si \(y_1, \dots, y_n\) son soluciones del sistema lineal homogéneo, entonces \(W(x)\) o bien es idénticamente nulo o bien nunca se anula. Por tanto:

  • Si \(W(x_0) \neq 0\) en algún punto \(x_0 \in I\), entonces \(W(x) \neq 0\) para todo \(x \in I\), lo que implica que las funciones son linealmente independientes en todo el intervalo.

  • Si \(W(x_0) = 0\) en algún punto \(x_0 \in I\), entonces \(W(x) \equiv 0\) para todo \(x \in I\), lo que implica que las funciones son linealmente dependientes en ese punto. En consecuencia, existen constantes \(c_1, \dots, c_n\), no todas nulas, tales que: \[ \mathbf{z}(x_0) = c_1 \mathbf{y}_1(x_0) + \dots + c_n \mathbf{y}_n(x_0) = \mathbf{0} \]

Por el principio de superposición, \(z(x)\) también es solución del sistema homogéneo. Dado que \(z(x_0)=0\), por el teorema de unicidad de soluciones debe cumplirse \(z(x)\equiv 0\) en todo \(I\). Por lo tanto, las funciones \(y_1, \dots, y_n\) son linealmente dependientes en todo el dominio.

Teorema 4.3 (Existencia de un sistema fundamental de soluciones (matriz identidad como base)) Existen \(n\) soluciones linealmente independientes (una por cada condición inicial base), por tanto, el espacio de soluciones tiene dimensión \(n\).

Demostración. Para demostrar la existencia de \(n\) soluciones linealmente independientes, se construye un conjunto de soluciones particulares mediante condiciones iniciales específicas.

Sea \(x_0 \in I\) un punto fijo. Para cada \(j = 1, 2, \dots, n\), se considera el problema de valor inicial:

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y}, \quad \mathbf{y}(x_0) = \mathbf{e}_j \tag{4.11}\]

donde \(\mathbf{e}_j\) es el \(j\)-ésimo vector de la base canónica de \(\mathbb{R}^n\):

\[ \mathbf{e}_1 = \begin{pmatrix} 1 \\ 0 \\ \vdots \\ 0 \end{pmatrix}, \quad \mathbf{e}_2 = \begin{pmatrix} 0 \\ 1 \\ \vdots \\ 0 \end{pmatrix}, \quad \dots, \quad \mathbf{e}_n = \begin{pmatrix} 0 \\ 0 \\ \vdots \\ 1 \end{pmatrix} \]

Por el teorema de existencia y unicidad de soluciones para sistemas lineales, cada uno de estos problemas de valor inicial tiene una única solución \(\mathbf{y}^{(j)}(x)\) definida en todo el intervalo \(I\).

Ahora evaluamos el wronskiano de estas soluciones en el punto \(x_0\):

\[ W[\mathbf{y}^{(1)}, \dots, \mathbf{y}^{(n)}](x_0) = \det\!\begin{pmatrix} \mathbf{y}^{(1)}(x_0) & \cdots & \mathbf{y}^{(n)}(x_0) \end{pmatrix} = \det\!\begin{pmatrix} \mathbf{e}_1 & \cdots & \mathbf{e}_n \end{pmatrix} = \det(\mathbf{I}_n) = 1 \neq 0. \]

donde \(\mathbf{I}_n\) es la matriz identidad de orden \(n\).

Dado que \(W(x_0) = 1 \neq 0\), por el Criterio del Wronskiano (Corolario 4.1), las soluciones \(\mathbf{y}^{(1)}, \dots, \mathbf{y}^{(n)}\) son linealmente independientes en todo el intervalo \(I\).

Por lo tanto, hemos construido un conjunto de \(n\) soluciones linealmente independientes del sistema homogéneo, lo que demuestra que el espacio de soluciones tiene dimensión \(n\).

Sistemas no homogéneos

En el caso no homogéneo, el conjunto de soluciones constituye un espacio afín asociado al espacio vectorial de soluciones del sistema homogéneo. De forma intuitiva, este espacio afín puede verse como el resultado de trasladar el subespacio de soluciones homogéneas de modo que una solución particular \(\mathbf{y}_p\) pasa a desempeñar el papel de origen.

Estructura de espacio afín

Teorema 4.4 (Estructura de la solución general) Si \(\mathbf{y}_p\) es una solución particular del sistema lineal

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y} + \mathbf{b}(x) \tag{4.12}\]

en un intervalo \(I\) y \(\mathbf{y}_h\) es una solución del sistema lineal homogéneo asociado

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y}, \]

entonces

\[ \mathbf{y} = \mathbf{y}_h + \mathbf{y}_p \tag{4.13}\]

es también una solución de del sistema no hómogeneo en \(I\).

Corolario 4.2 (Solución general del sistema no homogéneo) Si \(\mathbf{y}_p\) es una solución particular del sistema lineal no homogéneo

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y} + \mathbf{b}(x) \]

en un intervalo \(I\) y \(\mathbf{y}_1, \dots, \mathbf{y}_n\) es un conjunto fundamental de soluciones, en el mismo intervalo, del sistema lineal homogéneo asociado, entonces la solución general del sistema en \(I\) es

\[ \mathbf{y} = c_1\mathbf{y}_1 + \cdots + c_n\mathbf{y}_n + \mathbf{y}_p, \tag{4.14}\]

donde \(c_1, \dots, c_n\) son constantes arbitrarias.

Relación entre espacios afines asociados

Las soluciones de sistemas con distintos términos no homogéneos forman espacios afines paralelos. Sumar sus soluciones particulares equivale a describir cómo estos espacios se desplazan unos respecto a otros. Por lo tanto, la combinación lineal de soluciones particulares define una correspondencia afín entre los respectivos conjuntos de soluciones.

Teorema 4.5 (Principio de superposición para sistemas no homogéneos) Si para cada \(i = 1, 2, \dots, m\) la función \(\mathbf{y}_i\) es una solución del sistema lineal

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y} + \mathbf{b}_i(x) \]

en un intervalo \(I\), entonces la combinación lineal

\[ \mathbf{y} = c_1\mathbf{y}_1 + c_2\mathbf{y}_2 + \cdots + c_m\mathbf{y}_m, \]

donde \(c_1, c_2, \dots, c_m\) son constantes reales arbitrarias, es una solución del sistema lineal

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y} + c_1\mathbf{b}_1(x) + \cdots + c_m\mathbf{b}_m(x) \]

en el intervalo \(I\).

Matriz fundamental de soluciones

En la sección anterior se ha demostrado que el conjunto de las soluciones de un sistema lineal homogéneo de orden \(n\) es un espacio vectorial de dimensión \(n\). Una base de dicho espacio vectorial se denomina conjunto fundamental de soluciones. La matriz formada por los vectores solución como columnas es de utilidad para resolver y demostrar propiedades de sistemas.

Definición 4.6 (Matriz fundamental de soluciones) Una matriz \(\boldsymbol{\Phi}\) es matriz fundamental del sistema lineal homogéneo de orden \(n\)

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y} \tag{4.15}\]

en un intervalo \(I\), si sus columnas constituyen un conjunto fundamental de soluciones del sistema en dicho intervalo.

Caracterización de la matriz fundamental

Si \(\boldsymbol{\Phi}\) es una matriz cuadrada de columnas \(\mathbf{y}_1, \dots, \mathbf{y}_n\), entonces

\[ \det(\boldsymbol{\Phi}) = W[\mathbf{y}_1, \dots, \mathbf{y}_n] \]

Por lo tanto se pueden aplicar los resultados del Wronskiano para caracterizar la matriz fundamental.

Teorema 4.6 (Caracterización de matriz fundamental) Sea \(\boldsymbol{\Phi}\) una matriz cuadrada cuyas columnas son soluciones del sistema

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y} \tag{4.16}\]

en un intervalo \(I\). Las siguientes condiciones son equivalentes:

  1. La matriz \(\boldsymbol{\Phi}\) es una matriz fundamental del sistema en \(I\).
  2. Existe un \(x_0 \in I\) tal que \(\det(\boldsymbol{\Phi}(x_0)) \neq 0\).
  3. \(\det(\boldsymbol{\Phi}(x))\) no se anula en \(I\).

Demostración. Se demuestra la equivalencia demostrando un sentido de la implicación de manera circular \(1. \Rightarrow 2. \Rightarrow 3. \Rightarrow 1.\)

\(1. \Rightarrow 2.\): Si \(\boldsymbol{\Phi}\) es una matriz fundamental, sus columnas forman un conjunto fundamental de soluciones, por lo que son linealmente independientes. Por el Criterio del Wronskiano (Corolario 4.1), existe \(x_0 \in I\) tal que \(W(x_0) = \det(\boldsymbol{\Phi}(x_0)) \neq 0\).

\(2. \Rightarrow 3.\): Por el Teorema de Abel (Teorema 4.2), si el wronskiano es no nulo en un punto, entonces no se anula en todo el intervalo.

\(3. \Rightarrow 1.\): Si \(\det(\boldsymbol{\Phi})\) no se anula en \(I\), entonces \(W[\mathbf{y}_1, \dots, \mathbf{y}_n] \neq 0\) en todo \(I\). Por el Criterio del Wronskiano (Corolario 4.1), las columnas de \(\boldsymbol{\Phi}\) son linealmente independientes y, por tanto, forman un conjunto fundamental de soluciones.

Relación entre matrices fundamentales

Dado que un conjunto fundamental de soluciones es una base del espacio de soluciones, es natural suponer que cualquier otra colección de soluciones se describa mediante un cambio de base. El siguiente resultado formaliza esta correspondencia.

Proposición 4.3 (Relación entre matrices fundamentales) Sea \(\boldsymbol{\Phi}\) una matriz fundamental del sistema

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y}. \]

  1. Si \(\mathbf{C}\) es una matriz constante de determinante no nulo entonces la matriz \(\boldsymbol{\Phi}\mathbf{C}\) es también una matriz fundamental del sistema.

  2. Si \(\boldsymbol{\Psi}\) es otra matriz fundamental del sistema entonces existe una matriz constante \(\mathbf{C}\), con determinante no nulo, tal que \(\boldsymbol{\Psi} = \boldsymbol{\Phi}\mathbf{C}\).

Demostración. Demostración de 1.

Sea \(\boldsymbol{\Phi}\) una matriz fundamental de soluciones cuyas columnas \(\mathbf{\tilde{y}}_1, \dots, \mathbf{\tilde{y}}_n\) son soluciones. Sea \(c_j = (c_{1j}, c_{2j} \dots c_{nj})^t\) el vector columna j-ésimo de la matriz \(\mathbf{C}\) entonces

\[ \mathbf{{y}}_j(x) := \boldsymbol{\Phi}(x)\mathbf{c}_j = \sum_{i=1}^n c_{ij}\,\mathbf{y}_i(x) \] es solución del sistema por ser combinación lineal de soluciones.

Por lo tanto, si \(\mathbf{C}\) es la matriz de columnas los vectores \(\mathbf{c}_1, \dots, \mathbf{c}_n\) las columnas de la matriz \(\boldsymbol{\Phi}(x)\,\mathbf{C}\) son soluciones del sistema:

\[ \boldsymbol{\Phi}(x)\,\mathbf{C} = \begin{pmatrix} \displaystyle \sum_{i=1}^n c_{i1}\,\mathbf{\tilde y}_i(x) & \displaystyle \sum_{i=1}^n c_{i2}\,\mathbf{\tilde y}_i(x) & \cdots & \displaystyle \sum_{i=1}^n c_{in}\,\mathbf{\tilde y}_i(x) \end{pmatrix} = (\,\mathbf{y}_1(x),\,\mathbf{y}_2(x),\,\dots,\,\mathbf{y}_n(x)\,). \]

Además las columnas son linealmente independientes. Por el teorema de caracterización de matrices fundamentales (Teorema 4.6)Dado \(\det(\boldsymbol{\Phi}(x)) \neq 0\) (Teorema 4.6). Por tanto, aplicando la propiedad del producto de determinantes \[ \det(\boldsymbol{\Phi}(x)\mathbf{C}) = \det(\boldsymbol{\Phi}(x)) \cdot \det(\mathbf{C}) \neq 0 \]

Esto demuestra que \(\boldsymbol{\Phi}\mathbf{C}\) es matriz fundamental.

Demostración de 2.:

Sea \(\boldsymbol{\Psi}\) otra matriz fundamental del sistema. Como ambas \(\boldsymbol{\Phi}\) y \(\boldsymbol{\Psi}\) son matrices fundamentales, sus columnas forman conjuntos fundamentales de soluciones del sistema homogéneo. Por tanto, las columnas de \(\boldsymbol{\Psi}\) se pueden expresar como combinación lineal de las columnas de \(\boldsymbol{\Phi}\).

Sea \(\mathbf{\psi}_j\) la \(j\)-ésima columna de \(\boldsymbol{\Psi}\). Como las columnas de \(\boldsymbol{\Phi}\) forman una base del espacio de soluciones, existen constantes \(c_{1j}, c_{2j}, \dots, c_{nj}\) tales que

\[ \mathbf{\psi}_j(x) = c_{1j}\mathbf{\tilde{y}}_1(x) + c_{2j}\mathbf{\tilde{y}}_2(x) + \cdots + c_{nj}\mathbf{\tilde{y}}_n(x) = \boldsymbol{\Phi}(x)\mathbf{c}_j, \]

donde \(\mathbf{c}_j = (c_{1j}, c_{2j}, \dots, c_{nj})^{\mathsf{T}}\).

Definiendo \(\mathbf{C}\) como la matriz cuyas columnas son los vectores \(\mathbf{c}_1, \dots, \mathbf{c}_n\), se tiene que

\[ \boldsymbol{\Psi}(x) = \boldsymbol{\Phi}(x)\mathbf{C}. \]

Además, como ambas \(\boldsymbol{\Phi}\) y \(\boldsymbol{\Psi}\) son matrices fundamentales, sus determinantes no se anulan. Aplicando la propiedad del producto de determinantes:

\[ \det(\boldsymbol{\Psi}(x)) = \det(\boldsymbol{\Phi}(x)) \cdot \det(\mathbf{C}). \]

Como \(\det(\boldsymbol{\Psi}(x)) \neq 0\) y \(\det(\boldsymbol{\Phi}(x)) \neq 0\), se deduce que \(\det(\mathbf{C}) \neq 0\).

Finalmente, la matriz \(\mathbf{C}\) es constante porque los coeficientes \(c_{ij}\) de la combinación lineal son constantes.

La matriz fundamental proporciona una expresión explícita para la solución de un problema de valores iniciales.

Corolario 4.3 (Solución de problema de valor inicia) Sea \(\boldsymbol{\Phi}\) una matriz fundamental del sistema

\[ \mathbf{y}' = \mathbf{A}(x)\mathbf{y}, \quad \mathbf{y}(x_0) = \mathbf{y}_0 \]

la solución del sistema es:

\[ \mathbf{y}(x) = \boldsymbol{\Phi}(x)\bigl[\boldsymbol{\Phi}(x_0)\bigr]^{-1}\mathbf{y}_0. \tag{4.17}\]

Demostración. Como \(\boldsymbol{\Phi}\) es una matriz fundamental, sus columnas forman un conjunto fundamental de soluciones del sistema homogéneo. Por tanto, la solución general del sistema se puede expresar como

\[ \mathbf{y}(x) = \boldsymbol{\Phi}(x)\mathbf{c} \]

para algún vector constante \(\mathbf{c} \in \mathbb{R}^n\).

Imponiendo la condición inicial \(\mathbf{y}(x_0) = \mathbf{y}_0\), se tiene

\[ \mathbf{y}_0 = \boldsymbol{\Phi}(x_0)\mathbf{c}. \]

Como \(\boldsymbol{\Phi}\) es una matriz fundamental, \(\det(\boldsymbol{\Phi}(x_0)) \neq 0\), por lo que la matriz \(\boldsymbol{\Phi}(x_0)\) es invertible. Despejando \(\mathbf{c}\):

\[ \mathbf{c} = \bigl[\boldsymbol{\Phi}(x_0)\bigr]^{-1}\mathbf{y}_0. \]

Sustituyendo en la expresión de la solución general:

\[ \mathbf{y}(x) = \boldsymbol{\Phi}(x)\bigl[\boldsymbol{\Phi}(x_0)\bigr]^{-1}\mathbf{y}_0. \]

Sistemas lineales con coeficientes constantes

Al igual que en las ecuaciones lineales de orden superior, interesa el estudio de los sistemas lineales con coeficientes constantes. El homogéneo se resuelve hallando soluciones exponenciales y, en el no homogéneo, se obtiene una solución particular mediante el método de variación de las constantes o el de coeficientes indeterminados.

Sistemas homogéneo

Las soluciones del sistema homogéneo se construyen a partir de términos exponenciales \(e^{\lambda x}\). En esta sección se presenta su procedimiento de obtención y se introduce la formulación mediante la exponencial matricial \(e^{xA}\). Aunque esta última es la generalización de la primera, se describen las dos para clarificar el origen de las fórmulas y reforzar la intuición.

Método de autovalores

Sea el sistema lineal homogéneo de coeficientes constantes \[ \mathbf{y}' = A\,\mathbf{y},\qquad A\in\mathbb{R}^{n\times n}, \]

se buscan soluciones de la forma \(\mathbf{y}(x)=e^{\lambda x}\,\mathbf{v}\), con \(\lambda\in\mathbb{R}\) y \(\mathbf{v}\in\mathbb{R}^n\) constante. Esta suposición reduce el problema diferencial a un problema algebraico parecido a la diagonalización de matrices.

Proposición 4.4 (Solución exponencial y autovalores) Sea \(\mathbf{A}\in\mathbb{R}^{n\times n}\) una función de la forma \(\mathbf{y}(x)=e^{\lambda x}\,\mathbf{v}\), con \(\mathbf{v}\neq \mathbf{0}\), es solución del sistema homogéneo \[ \mathbf{y}' = \mathbf{A}\,\mathbf{y} \] si y sólo si \(\lambda\) es un autovalor de \(\mathbf{A}\) y \(\mathbf{v}\) un autovector asociado, esto es \[ \mathbf{A}\,\mathbf{v} = \lambda\,\mathbf{v}. \]

Demostración. Si \(\mathbf{y}(x)=e^{\lambda x}\,\mathbf{v}\), entonces \(\mathbf{y}'(x)=\lambda e^{\lambda x}\,\mathbf{v}\). Sustituyendo en el sistema se obtiene \[ \lambda e^{\lambda x}\,\mathbf{v} = A\bigl(e^{\lambda x}\,\mathbf{v}\bigr), \] dividiendo ambos miembros por \(e^{\lambda x}\neq 0\), se obtiene \(A\,\mathbf{v}=\lambda\,\mathbf{v}\).

En lo que sigue se examinan los diferentes casos que pueden aparecer según la naturaleza de los autovalores. En particular hay tres casos:

  1. El número de autovectores coincide con la dimensión del sistema
  2. El número de autovalores no coincide con la dimensión de la matriz
  3. Los autovalores son complejos
Número de autovectores coincide con la dimensión del sistema (\(n\))

El caso más sencillo, si hay \(n\) autovectores distintos estos formarán el conjunto fundamental de soluciones \(e^{\lambda_1 x}\mathbf{v}_1, e^{\lambda_2 x}\mathbf{v}_2,\dots,e^{\lambda_n x}\mathbf{v}_n\). Si los autovalores son distintos entonces siempre se cumple. Si hay algún vector \(\lambda_i\) con multiplicidad algebraica mayor que uno, dependerá de la multiplicidad geométrica que es por definición la dimensión del del subespacio proprio. Si las dos coinciden, también se cumple este caso.

Teorema 4.7 (Soluciones para autovalores con multiplicidad algebraica igual a la geométrica) Si la matriz \(\mathbf{A}\) tiene \(n\) autovalores reales y \(n\) autovectores correspondientes \(\lambda_1,\lambda_2,\dots,\lambda_n\), y \(\mathbf{v}_1,\dots,\mathbf{v}_n\), entonces las funciones

\[ e^{\lambda_1 x}\mathbf{v}_1,\, e^{\lambda_2 x}\mathbf{v}_2,\, \dots,\, e^{\lambda_n x}\mathbf{v}_n \]

forman un conjunto fundamental de soluciones del sistema

\[ \mathbf{y}' = \mathbf{A}\mathbf{y}. \]

Demostración. Se ha visto en la proposición anterior (Proposición 4.4) que cada función \(e^{\lambda_i x}\mathbf{v}_i\) es solución del sistema. Para comprobar que son linealmente independientes, basta encontrar un punto en el que el determinante de la matriz formada por dichas soluciones no se anule (Teorema 4.6).

Evaluando la matriz

\[ \boldsymbol{\Phi}(x)= \begin{pmatrix} e^{\lambda_1 x}\mathbf{v}_1 & \cdots & e^{\lambda_n x}\mathbf{v}_n \end{pmatrix} \]

en \(x=0\) se obtiene

\[ \boldsymbol{\Phi}(0)= \begin{pmatrix} \mathbf{v}_1 & \cdots & \mathbf{v}_n \end{pmatrix}. \]

Como los autovectores \(\mathbf{v}_1,\dots,\mathbf{v}_n\) son linealmente independientes, el determinante de \(\boldsymbol{\Phi}(0)\) es no nulo. Por el criterio citado, las funciones \(e^{\lambda_i x}\mathbf{v}_i\) son linealmente independientes y forman un conjunto fundamental de soluciones.

Ejemplo 4.6 Resolver el sistema homogéneo por el método de autovalores: \[ \mathbf{y}' = \begin{pmatrix}1 & 1\\[2pt] 4 & 1\end{pmatrix}\,\mathbf{y}. \]

Solución. El polinomio característico es \[ \chi_A(\lambda)=\det(\lambda I-A)=(\lambda-1)^2-4=\lambda^2-2\lambda-3=(\lambda-3)(\lambda+1), \] luego los autovalores son \(\lambda_1=3\) y \(\lambda_2=-1\).

Para \(\lambda_1=3\) se tiene \[ (A-3I)\,\mathbf{v}=\mathbf{0} \;\Rightarrow\; \begin{pmatrix}-2 & 1\\ 4 & -2\end{pmatrix}\!\mathbf{v}=\mathbf{0} \Rightarrow \mathbf{v}_1=\begin{pmatrix}1\\ 2\end{pmatrix}. \]

Para \(\lambda_2=-1\) se tiene \[ (A+I)\,\mathbf{v}=\mathbf{0} \;\Rightarrow\; \begin{pmatrix}2 & 1\\ 4 & 2\end{pmatrix}\!\mathbf{v}=\mathbf{0} \Rightarrow \mathbf{v}_2=\begin{pmatrix}1\\ -2\end{pmatrix}. \]

Por tanto, un conjunto fundamental de soluciones es \[ \mathbf{y}^{(1)}(x)=e^{3x}\begin{pmatrix}1\\ 2\end{pmatrix}, \qquad \mathbf{y}^{(2)}(x)=e^{-x}\begin{pmatrix}1\\ -2\end{pmatrix}, \] y la solución general del sistema \[ \mathbf{y}(x)=c_1 e^{3x}\begin{pmatrix}1\\ 2\end{pmatrix} \;+ c_2 e^{-x}\begin{pmatrix}1\\ -2\end{pmatrix},\qquad c_1,c_2\in\mathbb{R}. \]

Ejemplo 4.7 Resolver el sistema homogéneo por el método de autovalores: \[ \mathbf{y}' = \begin{pmatrix}9 & 4 & 0\\[2pt] -6 & -1 & 0\\[2pt] 6 & 4 & 3\end{pmatrix}\,\mathbf{y}. \]

Solución. El polinomio característico es \[ \chi_A(\lambda)=\det(\lambda I-A)=\begin{vmatrix}\lambda-9 & -4 & 0\\[2pt] 6 & \lambda+1 & 0\\[2pt] -6 & -4 & \lambda-3\end{vmatrix} \]

Desarrollando por la tercera columna: \[ \chi_A(\lambda)=(\lambda-3)\begin{vmatrix}\lambda-9 & -4\\[2pt] 6 & \lambda+1\end{vmatrix}=(\lambda-3)[(\lambda-9)(\lambda+1)+24]=(\lambda-3)(\lambda^2-8\lambda+15) \] \[ =(\lambda-3)(\lambda-3)(\lambda-5)=(\lambda-3)^2(\lambda-5) \]

Los autovalores son \(\lambda_1=3\) (con multiplicidad 2) y \(\lambda_2=5\).

Para \(\lambda_1=3\): \[ (A-3I)\,\mathbf{v}=\mathbf{0} \;\Rightarrow\; \begin{pmatrix}6 & 4 & 0\\[2pt] -6 & -4 & 0\\[2pt] 6 & 4 & 0\end{pmatrix}\!\mathbf{v}=\mathbf{0} \]

La dimensión del núcleo de esta matriz es dos. La multiplicidad geómetrica es igual a la algebraica por tanto, podemos coger dos autuvectores, por ejemplo: \[ \mathbf{v}_1=\begin{pmatrix}2\\[2pt] -3\\[2pt] 0\end{pmatrix}, \quad \mathbf{v}_2=\begin{pmatrix}0\\[2pt] 0\\[2pt] 1\end{pmatrix}. \]

Para \(\lambda_2=5\): \[ (A-5I)\,\mathbf{v}=\mathbf{0} \;\Rightarrow\; \begin{pmatrix}4 & 4 & 0\\[2pt] -6 & -6 & 0\\[2pt] 6 & 4 & -2\end{pmatrix}\!\mathbf{v}=\mathbf{0} \Rightarrow \mathbf{v}_3=\begin{pmatrix}1\\[2pt] -1\\[2pt] 1\end{pmatrix}. \]

Un conjunto fundamental de soluciones es \[ \mathbf{y}^{(1)}(x)=e^{3x}\begin{pmatrix}2\\[2pt] -3\\[2pt] 0\end{pmatrix}, \quad \mathbf{y}^{(2)}(x)=e^{3x}\begin{pmatrix}0\\[2pt] 0\\[2pt] 1\end{pmatrix}, \quad \mathbf{y}^{(3)}(x)=e^{5x}\begin{pmatrix}1\\[2pt] -1\\[2pt] 1\end{pmatrix}, \] y la solución general del sistema es \[ \mathbf{y}(x)=c_1 e^{3x}\begin{pmatrix}2\\[2pt] -3\\[2pt] 0\end{pmatrix} + c_2 e^{3x}\begin{pmatrix}0\\[2pt] 0\\[2pt] 1\end{pmatrix} + c_3 e^{5x}\begin{pmatrix}1\\[2pt] -1\\[2pt] 1\end{pmatrix},\qquad c_1,c_2,c_3\in\mathbb{R}. \]

Número de autovectores NO coincide con la dimensión del sistema (\(n\))

En este caso, nos faltan soluciones linealmente independientes para formar el conjunto fundamental de soluciones. En particular \(j\), la diferencia entre la multiplicidad algebraica y la multiplicidad geométrica . Por analogía con ecuaciones lineales de orden superior, es natural buscar soluciones de la forma

\[ \mathbf{y}(x) = e^{\lambda x}(\mathbf{a}_0 + \mathbf{a}_1 x + \cdots + \mathbf{a}_{j-1}x^{j-1} + \mathbf{a}_jx^j), \]

Teorema 4.8 (Soluciones para autovalores con multiplicidad algebraica mayor que la geométrica) Sea \(\lambda\) un autovalor de \(A\) con multiplicidad algebraica \(m\) y multiplicidad geométrica \(d<m\). Entonces existen \(m\) soluciones linealmente independientes asociadas a \(\lambda\) de la forma \[ \mathbf{y}_j(x)=e^{\lambda x}\bigl(\mathbf{a}_0+\mathbf{a}_1 x+\cdots+\mathbf{a}_{j-1}x^{j-1}+\mathbf{a}_j x^j\bigr), \tag{4.18}\]

para \(j=0,1,\dots,m-1\), donde los vectores constantes \(\mathbf{a}_k\) satisfacen el sistema \[ \begin{cases} (A-\lambda I)\mathbf{a}_{k-1}=k\mathbf{a}_k, & k=1,2,\dots,j;\\[4pt] (A-\lambda I)\mathbf{a}_j=\mathbf{0}. \end{cases} \tag{4.19}\]

Demostración. Para que \(\mathbf{y}_j\) sea solución del sistema \(\mathbf{y}'=A\mathbf{y}\) se ha de cumplir \[ \mathbf{y}_j'=\lambda \mathbf{y}_j+e^{\lambda x}\bigl(\mathbf{a}_1+2\mathbf{a}_2x+\cdots+(j-1)\mathbf{a}_{j-1}x^{j-2}+j\mathbf{a}_jx^{j-1}\bigr)=A\mathbf{y}_j, \]

o, equivalentemente, \[ (A-\lambda I)\mathbf{y}_j=e^{\lambda x}\bigl(\mathbf{a}_1+2\mathbf{a}_2x+\cdots+(j-1)\mathbf{a}_{j-1}x^{j-2}+j\mathbf{a}_jx^{j-1}\bigr). \]

Dividiendo ambos miembros por \(e^{\lambda x}\) se llega a que \(\mathbf{y}_j\) es solución del sistema si, y sólo si, \[ (A-\lambda I)\bigl(\mathbf{a}_0+\mathbf{a}_1x+\cdots+\mathbf{a}_{j-1}x^{j-1}+\mathbf{a}_jx^j\bigr)=\mathbf{a}_1+2\mathbf{a}_2x+\cdots+(j-1)\mathbf{a}_{j-1}x^{j-2}+j\mathbf{a}_jx^{j-1}. \]

Igualando coeficientes de cada potencia de \(x\) en los dos miembros de la relación anterior, se concluye que \(\mathbf{y}_j\) es solución si, y sólo si, se verifican las relaciones

\[ \begin{aligned} \mathbf{a}_1&=(A-\lambda I)\mathbf{a}_0\\[4pt] \mathbf{a}_2&=\frac{1}{2}(A-\lambda I)\mathbf{a}_1=\frac{1}{2!}(A-\lambda I)^2\mathbf{a}_0\\[4pt] \mathbf{a}_3&=\frac{1}{3}(A-\lambda I)\mathbf{a}_2=\frac{1}{3!}(A-\lambda I)^3\mathbf{a}_0\\[4pt] &\vdots\\[4pt] \mathbf{a}_k&=\frac{1}{k}(A-\lambda I)\mathbf{a}_{k-1}=\frac{1}{k!}(A-\lambda I)^k\mathbf{a}_0 \end{aligned} \tag{4.20}\]

Y la última \[ (A-\lambda I)\mathbf{a}_j=\mathbf{0} \]

En general \[ \begin{cases} (A-\lambda I)\mathbf{a}_{k-1}=k\mathbf{a}_k, & k=1,2,\dots,j;\\[4pt] (A-\lambda I)\mathbf{a}_j=\mathbf{0}. \end{cases} \tag{4.21}\]

Para que \(e^{\lambda x}\mathbf{y}_j\) sea un polinomio de grado \(j\) el coeficiente \(\mathbf{a}_j\) ha de ser no nulo. Por lo tanto debe existir un vector \(\mathbf{a}_0\in\ker(A-\lambda I)^{j+1}\smallsetminus\ker(A-\lambda I)^j\). En este caso el vector \(\mathbf{a}_0\) se define mediante las relaciones (Ecuación 4.20).

Resumiendo, la función (Ecuación 4.18) es una solución de la ecuación (Ecuación 4.6) si, y sólo si, \[ \mathbf{a}_0\in\ker(A-\lambda I)^{j+1}\smallsetminus\ker(A-\lambda I)^j \tag{4.22}\]

y \[ \mathbf{a}_k=\frac{1}{k!}(A-\lambda I)^k\mathbf{a}_0 \tag{4.23}\]

para todo \(k=1,2,\dots,j\).

Por último, queda pendiente definir \(j\). Sea \(d>1\) es tal que \[ \ker(A-\lambda I)^{d+1}=\ker(A-\lambda I)^d. \]

En este caso, existe un vector \(\mathbf{v}_0\in\ker(A-\lambda I)^d\smallsetminus\ker(A-\lambda I)^{d-1}\). Definiendo recursivamente los vectores \[ \mathbf{v}_k=(A-\lambda I)^k\mathbf{v}_0 \]

para \(k=1,\dots,d\), entonces

\[ \begin{cases} (A-\lambda I)^{d-k}\mathbf{v}_k=(A-\lambda I)^d\mathbf{v}_0=\mathbf{0}\\[4pt] (A-\lambda I)^{d-k-1}\mathbf{v}_k=(A-\lambda I)^{d-1}\mathbf{v}_0\neq\mathbf{0} \end{cases} \]

luego \(\mathbf{v}_k\in\ker(A-\lambda I)^{d-k}\smallsetminus\ker(A-\lambda I)^{d-k-1}\). Se tiene entonces que, para \(j=0,\dots,d-1\), las condiciones (Ecuación 4.22) y (Ecuación 4.23) se cumplen cuando \(\mathbf{a}_0=\mathbf{v}_{d-j-1}\) y \(\mathbf{a}_1=\frac{1}{1!}\mathbf{v}_{d-j}\), por lo tanto, las funciones \[ \mathbf{y}_j(x)=e^{\lambda x}\biggl(\mathbf{v}_{d-j-1}+\mathbf{v}_{d-j}\frac{x}{1!}+\cdots+\mathbf{v}_{d-2}\frac{x^{j-1}}{(j-1)!}+\mathbf{v}_{d-1}\frac{x^j}{j!}\biggr) \tag{4.24}\]

son soluciones de (Ecuación 4.6).

Este teorema demuestra como encontrar las soluciones. Hay que coger un polinomio de grado \(d\) donde \(d\) es el primer valor tal que \(\ker(A-\lambda I)^{d+1} = \ker(A-\lambda I)^d\). Además \(a_d \in \ker(A-\lambda I)^{d+1}=\ker(A-\lambda I)^d\) y el resto de valores se definen recursivamente.

Ejemplo 4.8  

Resolver el sistema \(\mathbf{y}'=A\mathbf{y}\) donde

\[ A = \begin{pmatrix} 3 & -1 & 1 & 1 & 0 & 0\\ 1 & 1 & -1 & -1 & 0 & 0\\ 0 & 0 & 2 & 0 & 1 & 1\\ 0 & 0 & 0 & 2 & 1 & 1\\ 0 & 0 & 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 0 & 1 & 1 \end{pmatrix} \]

Solución. Paso 1: Cálculo de autovalores

El polinomio característico de \(A\) es

\[ \det(A - \lambda I) = \lambda(\lambda - 2)^5 \]

Por tanto, $ = 0$ es autovalor y \(\lambda = 2\) es el único autovalor con multiplicidad algebraica mayor que uno \(m_a = 5\).

Paso 2: Cálculo de autovectores y multiplicidad geométrica

Se resuelve \((A - 2I)\mathbf{v} = \mathbf{0}\):

\[ A - 2I = \begin{pmatrix} 1 & -1 & 1 & 1 & 0 & 0\\ 1 & -1 & -1 & -1 & 0 & 0\\ 0 & 0 & 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 0 & -1 & 1\\ 0 & 0 & 0 & 0 & 1 & -1 \end{pmatrix} \]

Escalonando

\[ \text{rref}(A - 2I) = \begin{pmatrix} 1 & -1 & 0 & 0 & 0 & 0\\ 0 & 0 & -2 & -2 & 0 & 0\\ 0 & 0 & 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 0 & 0 & 1\\ 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 0 \end{pmatrix} \]

Por tanto, \(dim(\ker(A - 2I)) = 2\), luego la multiplicidad geométrica es \(m_g = 2\).

Una base del espacio de autovectores es

\[ \mathbf{v}_1 = \begin{pmatrix} 1\\ 1\\ 0\\ 0\\ 0\\ 0 \end{pmatrix}, \quad \mathbf{v}_2 = \begin{pmatrix} 0\\ 0\\ -1\\ 1\\ 0\\ 0 \end{pmatrix}, \quad \]

Paso 3: Cálculo de vectores generalizados

Como \(m_a - m_g = 6 - 3 = 3\), necesitamos encontrar 3 vectores generalizados adicionales.

Se calculan los núcleos sucesivos. Ya se ha calculado \(\dim(\ker(A - 2I)) = 2\).

  • \(\dim(\ker(A - 2I)) = 2\)
  • \(\dim(\ker(A - 2I)^2) = 4\)
  • \(\dim(\ker(A - 2I)^3) = 5\)

Por tanto, \(d = 3\) es el primer valor tal que \(\ker(A - 2I)^{d+1} = \ker(A - 2I)^d\).

Esto implica que voy a tener dos soluciones de la forma Ecuación 4.24, un polinomio de grado uno y uno de grado dos.

Paso 4: Construcción de las soluciones

Hay que hallar \(v_0 \in \ker(A - 2I)^{3} \smallsetminus \ker(A - 2I)^2\).

Definimos \(v_1 = (A-\lambda I) v_0\) y \(v_2 = (A-\lambda I) v_1\).

El siguiente vector será \(u_0 \in \ker(A - 2I)^{2} \smallsetminus \ker(A - 2I)\). Y el último \(u_1 = (A-\lambda I) u_0\)

Sea w el autovector del cero, la solución general del sistema es

\[ \mathbf{y}(x) = c_1 w + c_2 u_0 e^{2x} + c_3 u_1 e^{2x} x + c_4 v_1 e^{2x} + c_5 v_2 e^{2x} x + c_6 v_3 e^{2x} \dfrac{x^2}{2} \]

donde \(c_1, c_2, c_3, c_4, c_5, c_6 \in \mathbb{R}\) son constantes arbitrarias.

Autovalores complejos

Ya se ha visto para ecuaciones lineales de orden superior que aunque el espacio de funciones sea complejo, se puede coger una base formada por funciones reales. Por lo tanto si \(\mathbb{y}\) es solución, se puede coger como base \((Re(\mathbb{y}), Im(\mathbb{y}))\)

Ejemplo 4.9 Resolver el problema con valores iniciales

\[ \mathbf{X}' = \begin{pmatrix} 2 & 8 \\ -1 & -2 \end{pmatrix}\mathbf{X}, \quad \mathbf{X}(0) = \begin{pmatrix} 2 \\ -1 \end{pmatrix} \tag{4.25}\]

Solución. Paso 1: Cálculo de autovalores

Primero se obtienen los autovalores a partir del polinomio característico:

\[ \det(\mathbf{A} - \lambda \mathbf{I}) = \begin{vmatrix} 2 - \lambda & 8 \\ -1 & -2 - \lambda \end{vmatrix} = \lambda^2 + 4 = 0 \]

Los autovalores son \(\lambda_1 = 2i\) y \(\lambda_2 = \overline{\lambda_1} = -2i\).

Paso 2: Cálculo de autovectores

Para \(\lambda_1 = 2i\), el sistema de ecuaciones es:

\[ \begin{cases} (2 - 2i)k_1 + 8k_2 = 0 \\ -k_1 + (-2 - 2i)k_2 = 0 \end{cases} \]

Tomando \(k_2 = -1\), se obtiene:

\[ \mathbf{K}_1 = \begin{pmatrix} 2 + 2i \\ -1 \end{pmatrix} = \begin{pmatrix} 2 \\ -1 \end{pmatrix} + i\begin{pmatrix} 2 \\ 0 \end{pmatrix} \]

Paso 3: Construcción de soluciones reales

La manera más sencilla es coger la parte real y la imaginaria de una de las soluciones complejas: Definimos dos vectores, la parte real y la compleja del autovector:

\[ \mathbf{B}_1 = \operatorname{Re}(\mathbf{K}_1) = \begin{pmatrix} 2 \\ -1 \end{pmatrix} \quad \text{y} \quad \mathbf{B}_2 = \operatorname{Im}(\mathbf{K}_1) = \begin{pmatrix} 2 \\ 0 \end{pmatrix} \]

Puesto que \(\alpha = 0\) y \(\beta = 2\), las funciones de cada vector son:

\[ Re(e^{(\alpha + i \beta )x}) = Re(e^\alpha(\cos x + i \sin x)) \quad \text{y} \quad Im(e^{(\alpha + i \beta )x}) = Im(e^\alpha(\cos x + i \sin x)) \]

La solución general del sistema es:

\[ \begin{aligned} \mathbf{X} &= c_1\left[\begin{pmatrix}2\\-1\end{pmatrix}\cos 2x - \begin{pmatrix}2\\0\end{pmatrix}\sin 2x\right] + c_2\left[\begin{pmatrix}2\\0\end{pmatrix}\cos 2x + \begin{pmatrix}2\\-1\end{pmatrix}\sin 2x\right] \\[6pt] &= c_1\begin{pmatrix}2\cos 2x - 2\sin 2x \\ -\cos 2x\end{pmatrix} + c_2\begin{pmatrix}2\cos 2x + 2\sin 2x \\ -\sin 2x\end{pmatrix} \end{aligned} \tag{4.26}\]

Paso 4: Aplicación de la condición inicial

La condición inicial \(\mathbf{X}(0) = \begin{pmatrix}2\\-1\end{pmatrix}\) produce el sistema algebraico:

\[ 2c_1 + 2c_2 = 2, \quad -c_1 = -1 \]

cuya solución es \(c_1 = 1\) y \(c_2 = 0\). Así, la solución para el problema de valores iniciales es:

\[ \mathbf{X} = \begin{pmatrix}2\cos 2x - 2\sin 2x \\ -\cos 2x\end{pmatrix} \]

Exponencial de una matriz


© Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)