Ecuación diferencial lineal

Una ecuación diferencial lineal ordinaria es una ecuación diferencial que tiene la forma:

 a_n(x) D^n y(x) + a_{n-1}(x)D^{n-1} y(x) + \cdots + a_1(x) D y(x) + a_0(x) y(x) =f(x)

O usando otra notación frecuente:

a_n(x)\frac{d^ny}{dx^n} + a_{n-1}(x)\frac{d^{n-1}y}{dx^{n-1}}
+ \cdots + a_1(x)\frac{dy}{dx} + a_0(x) y = f(x)

Para que una ecuación diferencial sea lineal debe darse que no aparezcan productos de la función incógnita consigo misma ni con ninguna de sus derivadas. Si usamos la notación \mathcal{L} para denotar el operador diferencial lineal de la ecuación anterior, entonces la ecuación anterior puede escribirse como:

\mathcal{L}y = f, \qquad \mathcal{L} = \sum_{k=0}^n a_k(x)D^k(\cdot)

Estas ecuaciones tienen la propiedad de que el conjunto de las posibles soluciones tiene estructura de espacio vectorial de dimensión finita cosa que es de gran ayuda a la hora de encontrar dichas soluciones.

Ecuación lineal de primer orden

Las Ecuaciones diferenciales de primer orden se caracterizan por ser de la forma:

\begin{cases} y'+p(x)y = q(x)\\
y(x_0) = y_0 \end{cases}

Donde p(x) y q(x) son funciones continuas en un intervalo abierto (a,b) \subseteq \mathbb{R}. La solución de esta ecuación viene dada por:

y(x) =e^{ - \int_{x_0}^x p(s) ds } \left[ y_0 + \int_{x_0}^x q(s) e^{ \int_{x_0}^s \! p(t) dt } ds \right]

Ecuaciones lineales de orden n

Del mismo modo que se ha definido la ecuación diferencial lineal de primer orden podemos definir una ecuación diferencial de orden n como:

y^{(n)}+ A_1(x)y^{(n-1)} + \dots + A_n(x)y = R(x)

Donde la derivada mayor que aparece es de orden n-ésimo.

Resolución caso general

Esta ecuación se dice que es lineal si la función incógnita o sus derivadas no están multiplicadas por si mismas o si tampoco aparecen en forma de funciones compuestas (por ejemplo, \sin (y)). Una ecuación diferencial lineal de orden superior puede atacarse convirtiéndola en un sistema de n ecuaciones diferenciales de primer orden. Para hacer esto se definen las n funciones incógnita adicionales dadas por:

Y_0(x):= y(x),\quad Y_k(x):= \frac{d^k y}{dx^k}

Puesto que:

Y_k(x)=\frac{d Y_{k-1}}{dx}\ \text{con}\ k\le n-1,
\quad Y_n(x):= -A_1(x)Y_{n-1}(x) -\dots -A_n(x)Y_0(x) + R(x)

El sistema de ecuaciones diferenciales puede escribirse en forma de ecuación matricial como:

\begin{bmatrix} Y_0'\\ Y_1'\\ \dots\\ Y_n' \end{bmatrix} =
\begin{bmatrix}
0 & 1 & 0 &\dots & 0 \\
0 & 0 & 1 & \dots & 0 \\
\dots & & & \dots \\
-A_n & -A_{n-1} & -A_{n-2} &\dots & -A_1 \end{bmatrix}
\begin{bmatrix} Y_0 \\ Y_1 \\ \dots\\ Y_n \end{bmatrix}

Resolución con coeficientes constantes

La resolución de ecuaciones y sistemas de ecuaciones diferenciales se simplifica mucho si las ecuaciones son de coeficientes constantes. En el caso de una ecuación de primer orden la búsqueda de un factor integrante nos lleva en la mayoría de los casos a una ecuación en derivadas parciales. Si la ecuación es de orden superior, a no ser que sea una ecuación de Euler o similar, tendremos que proponer una solución que no viene dada, en general, por funciones elementales. En estos casos los métodos preferidos (sin contar el cálculo numérico) son los que emplean series de potencias o series de Fourier. En el caso de los sistemas, si la matriz del sistema es de coeficientes constantes podemos resolver el sistema usando el método de los valores propios ya que en ese caso la matriz resultante de la reducción de la ecuación a un sistema de primer orden es constante y puede encontrarse fácilmente su solución calculando la exponencia de la matriz del sistema.

Para estudiar otros métodos de encontrar la solución a parte de la exponenciación de matrices consideraremos una ecuación del tipo:

 y^{(n)}+ a_1 y^{(n-1)}+ \dots + a_n y+ b = 0

Donde a_k (k=0,1,\dots,n)\in\R son coeficientes constantes conocidos. Observemos que la derivada n-ésima va acompañada por el coeficiente unidad. Definimos el polinomio característico de la ecuación como

r^n+a_1r^{n-1}+\dots+a_n=0

que es una ecuación algebraica de orden n. Se demuestra que si hallamos las n raíces \lambda_n del polinomio característico la solución de la ecuación homogénea:

 y(x)= y_1(x)+\dots+y_n(x)

Al calcular las raíces \lambda_n del polinomio característico pueden darse los siguientes casos:

y(x)=\sum_{j=1}^q C_j x^{j-1} e^{\lambda_0 x}

y_k(x) = e^{a_kx}[\cos(b_kx)+ \sin (b_kx)]

Si las raíces complejas conjugadas están repetidas q veces, la ecuación es del tipo

y_k(x) = e^{a_kx}\left[\sum_{j=1}^q C_j x^{j-1} \cos(b_kx)+ \sum_{j=1}^q C_j x^{j-1} \sin (b_kx)\right]

Una vez resuelto el problema homogéneo podemos atacar el problema completo. Para tener la solución del problema completo debemos sumar una solución particular a la solución homogénea ya obtenida:

y(x)= y_p(x) + y_h(x) = y_p(x) + \sum_{k=1}^n C_ke^{\lambda_kx}

Para hallar \!y_p(x) empleamos el método de la conjetura razonable, consistente en analizar el término inhomogéneo de la ecuación y proponer funciones del mismo tipo como solución. Nótese que no es necesario que \!b sea un coeficiente constante.

Ejemplos

Véase también

Referencias

    Bibliografía

    Enlaces externos

    This article is issued from Wikipedia - version of the Friday, November 27, 2015. The text is available under the Creative Commons Attribution/Share Alike but additional terms may apply for the media files.