2023-05-30 14:02:46 +02:00
Die gewonnenen Erkenntnisse können nun dazu genutzt werden,
um Lösungen für homogene lineare Differentialgleichungssysteme mit konstanten Koeffizienten zu finden.
2023-05-26 22:38:39 +02:00
\subsection { Diagonale Matrizen} \label { subsec:03-01}
Zunächst werden diagonale Matrizen $ A = \diag \{ a _ 1 , \dots ,a _ n \} $ betrachtet.
Vorgegeben sei also eine Diagonalmatrix
\begin { equation*}
A = \diag \{ a_ 1,\dots ,a_ n\}
= \begin { pmatrix}
a_ 1 & & \\
& \ddots & \\
& & a_ 3
\end { pmatrix} .
\end { equation*}
Für ein~\ref { eq:dgls} liegen dann die $ n $ unabhängigen Differentialgleichungen
\begin { equation*}
y'_ i(x) = a_ i y_ i(x) \qquad (i = 1,\dots ,n)
\end { equation*}
vor, deren Lösungen zu einem gegebenen Anfangswert $ \vec { y } _ 0 = ( y _ { 0 _ 1 } , \dots ,y _ { 0 _ n } ) ^ T $ durch
\begin { equation*}
2023-05-27 23:24:34 +02:00
y_ i(x) = \e ^ { (x - x_ 0) a_ i} y_ { 0_ i} \qquad (i = 1,\dots ,n)
2023-05-26 22:38:39 +02:00
\end { equation*}
gegeben sind.
Mittels Matrixexponentialfunktion lässt sich die Lösung also durch
\begin { equation*}
2023-05-27 23:24:34 +02:00
\vec { y} (x) = \e ^ { (x - x_ 0) A}
2023-05-26 22:38:39 +02:00
= \begin { pmatrix}
2023-05-27 23:24:34 +02:00
\e ^ { (x - x_ 0) a_ 1} & & \\
2023-05-26 22:38:39 +02:00
& \ddots & \\
2023-05-27 23:24:34 +02:00
& & \e ^ { (x - x_ 0) a_ n}
2023-05-26 22:38:39 +02:00
\end { pmatrix}
\end { equation*}
angeben.
\subsection { Diagonalisierbare Matrizen} \label { subsec:03-02}
2023-05-30 14:02:46 +02:00
Das Lösen eines~\ref { eq:dgls} s mit einer diagonalisierbaren Koeffizientenmatrix $ A $ kann auf den obigen Fall der~\nameref { subsec:03-01}
2023-05-26 22:38:39 +02:00
zurückgeführt werden.
2023-05-27 23:24:34 +02:00
Dazu wird $ A $ durch eine Diagonalmatrix $ L = \diag \{ \lambda _ 1 , \dots , \lambda _ n \} $ aus den Eigenwerten $ \lambda _ i $ ($ i = 1 , \dots ,n $ )
und durch die Matrix $ V $ der zugehörigen Eigenvektoren mit
2023-05-26 22:38:39 +02:00
\begin { equation*}
A = V L V^ { -1}
\end { equation*}
2023-05-27 23:24:34 +02:00
dargestellt.
2023-05-26 22:38:39 +02:00
\begin { theorem} \label { thm:diagbar-cp-solution}
Sei $ A = V L V ^ { - 1 } $ eine diagonalisierbare Matrix mit $ L = \diag \{ \lambda _ 1 , \dots , \lambda _ n \} $ ,
wobei $ \lambda _ i $ ($ i = 1 , \dots ,n $ ) die Eigenwerte und $ V $ die Matrix mit den zugehörigen Eigenvektoren von $ A $ sind.
Dann ist die Lösung eines~\hyperref [eq:cp] { C\textc { auchy} -Problems}
\begin { gather*}
\vec { y} '(x) = A \vec { y} (x) = V L V^ { -1} \vec { y} (x), \qquad \vec { y} _ 0 = (y_ { 1_ 0} ,\dots ,y_ { n_ 0} )^ T\\
\intertext { durch}
\begin { aligned}
\vec { y} (x)
2023-05-27 23:24:34 +02:00
& = V \e ^ { (x - x_ 0) L} V^ { -1} \vec { y} _ 0\\
\big ( & = \left . V \diag \left \{ \e ^ { (x - x_ 0) \lambda _ 1} , \dots ,\e ^ { (x - x_ 0) \lambda _ n} \right \} V^ { -1} \right )
2023-05-26 22:38:39 +02:00
\end { aligned}
\end { gather*}
gegeben.
\end { theorem}
\begin { proof}
Das~\ref { eq:dgls}
\begin { gather*}
\vec { y} '(x) = V L V^ { -1} \vec { y} (x)\\
\intertext { lässt sich zu}
V^ { -1} \vec { y} '(x) = L V^ { -1} \vec { y} (x).
\end { gather*}
umformen.
2023-05-30 14:02:46 +02:00
Durch Substitution von $ \vec { u } = V ^ { - 1 } \vec { y } $ ergibt sich das~\ref { eq:cp}
2023-05-26 22:38:39 +02:00
\begin { equation} \tag { $ \triangle $ } \label { eq:03-02-01}
\vec { u} '(x) = L \vec { u} (x), \qquad \vec { u} _ 0 \coloneqq \vec { u} (x_ 0) = V^ { -1} \vec { y} (x_ 0) = V^ { -1} \vec { y} _ 0.
\end { equation}
Da $ L $ eine Diagonalmatrix ist, folgt mit~\autoref { subsec:03-01} , dass
\begin { equation*}
2023-05-27 23:24:34 +02:00
\vec { u} (x) = \e ^ { (x - x_ 0) L} \vec { u} _ 0
2023-05-26 22:38:39 +02:00
\end { equation*}
die Lösung von~\eqref { eq:03-02-01} ist.
Rücksubstitution ergibt schließlich die Lösung
2023-05-27 23:24:34 +02:00
\begin { alignat*} { 2}
& & \vec { u} (x) & = \e ^ { (x - x_ 0) L} \vec { u} _ 0\\
\Leftrightarrow \quad & & V^ { -1} \vec { y} & = \e ^ { (x - x_ 0) L} V^ { -1} \vec { y} _ 0\\
\Leftrightarrow \quad & & \vec { y} & = V \e ^ { (x - x_ 0) L} V^ { -1} \vec { y} _ 0.
\end { alignat*}
2023-05-26 22:38:39 +02:00
\end { proof}
\begin { corollary}
Sei $ A $ diagonalisierbar mit $ A = V L V ^ { - 1 } $ .
Dann gilt für die Matrixexponentialfunktion
\begin { equation*}
\e ^ { A} = V \e ^ { L} V^ { -1} .
\end { equation*}
\end { corollary}
\begin { proof}
Zuerst wird gezeigt, dass $ A ^ k = V L ^ k V ^ { - 1 } $ für $ k \in \NN $ :
\begin { alignat*} { 2}
A^ k & = (V L V^ { -1} )^ k & & = \underbrace { (V L V^ { -1} ) (V L V^ { -1} ) (V L V^ { -1} ) \dots (V L V^ { -1} )} _ { k \text { -mal} } \\
& = V L \underbrace { (V^ { -1} V)} _ { E} L \underbrace { (V^ { -1} V)} _ { E} \dots \underbrace { (V^ { -1} V)} _ { E} L V^ { -1} & & = V \underbrace { L \cdots L} _ { k \text { -mal} } V^ { -1} \\
& = V L^ k V^ { -1}
\end { alignat*}
Damit folgt dann für die Matrixexponentialfunktion
\begin { alignat*} { 2}
\e ^ { A} & = \e ^ { V L V^ { -1} } & & = \sum ^ \infty _ { k=0} \frac { (V L V^ { -1} )^ k} { k!} \\
& = \sum ^ \infty _ { k=0} \frac { V L^ k V^ { -1} } { k!} & & = V \left ( \sum ^ \infty _ { k=0} \frac { L^ k} { k!} \right ) V^ { -1} \\
& = V e^ L V^ { -1}
\end { alignat*}
\end { proof}
2023-05-27 23:24:34 +02:00
\emph { Bemerkung:} \hyperref [thm:diagbar-cp-solution] { Folgerung~\ref * { thm:diagbar-cp-solution} } lässt sich leicht ersichtlich auf einen allgemeinen Fall von ähnlichen Matrizen $ A = S B S ^ { - 1 } $ übertragen, d.h.
2023-05-26 22:38:39 +02:00
\begin { equation*}
\e ^ A = \e ^ { S B S^ { -1} } = S \e ^ B S^ { -1} .
\end { equation*}
\subsection { Nicht-diagonalisierbare Matrizen} \label { subsec:03-03}
2023-05-30 14:08:57 +02:00
Jede Matrix $ A $ lässt sich auf eine \emph { J\textc { ordan} -Normalform} $ J = V ^ { - 1 } L V $ bringen.
2023-05-26 22:38:39 +02:00
Eine J\textc { ordan} -Normalform $ J $ ist eine Blockdiagonalmatrix der Form
\begin { gather*}
J = \begin { pmatrix}
J_ 1 & & \\
& \ddots & \\
& & J_ n
\end { pmatrix} \\
2023-05-30 14:02:46 +02:00
\intertext { mit J\textc { ordan} -Block}
2023-05-26 22:38:39 +02:00
J_ i = \begin { pmatrix}
2023-05-30 14:08:57 +02:00
\lambda _ i & 1 & & \\
& \lambda _ i & \ddots & \\
& & \ddots & 1 \\
& & & \lambda _ i
2023-05-26 22:38:39 +02:00
\end { pmatrix}
\qquad (i = 1,\dots ,n).
\end { gather*}
Das folgende \hyperref [thm:blockdiag-exp] { Lemma~\ref * { thm:blockdiag-exp} } lässt vermuten,
dass die gewonnenen Erkenntnisse aus~\autoref { subsec:03-02} anwendbar sein könnten.
\begin { lemma} \label { thm:blockdiag-exp}
Sei $ A \in \RR ^ { nd \times nd } $ eine Blockdiagonalmatrix
\begin { equation*}
A = \begin { pmatrix}
A_ 1 & & \\
& \ddots & \\
& & A_ n
\end { pmatrix} ,
\end { equation*}
2023-05-30 14:02:46 +02:00
mit quadratischen Matrizen $ A _ 1 , \dots , A _ n \in \RR ^ { d \times d } $ .
2023-05-26 22:38:39 +02:00
Dann gilt
\begin { equation*}
\e ^ A = \begin { pmatrix}
\e ^ { A_ 1} & & \\
& \ddots & \\
& & \e ^ { A_ n}
\end { pmatrix} .
\end { equation*}
\end { lemma}
\begin { proof}
Es gilt
\begin { equation*}
A^ k = \begin { pmatrix}
2023-05-27 23:24:34 +02:00
A^ k_ 1 & & \\
& \ddots & \\
& & A^ k_ n
2023-05-26 22:38:39 +02:00
\end { pmatrix} .
\end { equation*}
Damit folgt dann
\begin { alignat*} { 2}
\e ^ A
& = \sum ^ \infty _ { k=0} \frac { A^ k} { k!}
2023-05-30 14:02:46 +02:00
& & = \sum ^ \infty _ { k=0} \frac { 1} { k!}
2023-05-26 22:38:39 +02:00
\begin { pmatrix}
2023-05-30 14:02:46 +02:00
A^ k_ 1 & & \\
& \ddots & \\
& & A^ k_ n
2023-05-26 22:38:39 +02:00
\end { pmatrix} \\
& = \sum ^ \infty _ { k=0}
\begin { pmatrix}
\frac { A^ k_ 1} { k!} & & \\
& \ddots & \\
& & \frac { A^ k_ n} { k!}
\end { pmatrix}
& & = \begin { pmatrix}
\sum ^ \infty _ { k=0} \frac { A^ k_ 1} { k!} & & \\
& \ddots & \\
& & \sum ^ \infty _ { k=0} \frac { A^ k_ n} { k!}
\end { pmatrix} \\
& = \begin { pmatrix}
\e ^ { A_ 1} & & \\
& \ddots & \\
& & \e ^ { A_ n}
\end { pmatrix}
\end { alignat*}
\end { proof}
Es ergeben sich also Lösungen eines gegebenen~\hyperref [eq:cp] { C\textc { auchy} -Problems} mit einer nicht-diagonalisierbaren Matrix $ A = V J V ^ { - 1 } $ durch
\begin { equation*}
2023-05-27 23:24:34 +02:00
\vec { y} (x) = V \e ^ { (x - x_ 0) J} V^ { -1} \vec { y} _ 0.
2023-05-26 22:38:39 +02:00
\end { equation*}
Zudem zeigt~\hyperref [thm:blockdiag-exp] { Lemma~\ref * { thm:blockdiag-exp} } ,
dass sich die Berechnung von $ \e ^ J $ auf die einzelnen $ \e ^ { J _ i } $ für $ i = 1 , \dots ,n $ reduzieren lässt.\\
2023-05-30 14:02:46 +02:00
Ein J\textc { ordan} -Block $ J _ i $ lässt sich weiter zerlegen zu
2023-05-26 22:38:39 +02:00
\begin { equation*}
J_ i = \begin { pmatrix}
2023-05-30 14:08:57 +02:00
\lambda _ i & 1 & & \\
& \lambda _ i & \ddots & \\
& & \ddots & 1 \\
& & & \lambda _ i
2023-05-26 22:38:39 +02:00
\end { pmatrix}
= \underbrace { \begin { pmatrix}
2023-05-27 23:24:34 +02:00
\lambda & & \\
& \ddots & \\
& & \lambda
2023-05-30 14:08:57 +02:00
\end { pmatrix} } _ { = L_ i}
2023-05-26 22:38:39 +02:00
+ \underbrace { \begin { pmatrix}
0 & 1 & & \\
& 0 & \ddots & \\
& & \ddots & 1 \\
& & & 0
\end { pmatrix} } _ { \eqqcolon N}
2023-05-30 14:08:57 +02:00
= L_ i + N.
2023-05-26 22:38:39 +02:00
\end { equation*}
Dabei ist $ N $ eine \emph { nilpotente} Matrix, d.h.\ es existiert ein $ l \in \NN $ so, dass $ N ^ l = 0 $ .
2023-05-30 14:08:57 +02:00
Zudem kommutieren die Matrizen $ L _ i $ und $ N $ , da
2023-05-27 23:24:34 +02:00
\begin { gather*}
2023-05-30 14:08:57 +02:00
L_ i N = (\lambda _ i E) N = \lambda (EN) = \lambda (NE) = N (\lambda _ i E) = N L_ i,\\
2023-05-27 23:24:34 +02:00
\intertext { weshalb}
2023-05-30 14:08:57 +02:00
\e ^ { L_ i + N} = \e ^ { L_ i} \e ^ N
2023-05-27 23:24:34 +02:00
\end { gather*}
2023-05-26 22:38:39 +02:00
gilt.
2023-05-30 14:08:57 +02:00
Da $ L _ i $ eine Diagonalmatrix ist, ist die Lösung von $ \e ^ L $ bereits aus~\autoref { subsec:03-01} bekannt.
2023-05-26 22:38:39 +02:00
Für $ N $ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $ \e ^ N $ ,
da ab einem $ l \in \NN $ gilt, dass $ N ^ l = N ^ { l + 1 } = \dots = 0 $ , d.h.
2023-05-27 23:24:34 +02:00
\begin { align*}
\e ^ N & = \sum ^ \infty _ { k=0} \frac { N^ k} { k!}
= \sum ^ { l-1} _ { k=0} \frac { N^ k} { k!}
= E + N + \frac { 1} { 2} N^ 2 + \dots + \frac { 1} { (l-1)!} N^ { l-1} \\
& = E + N + \frac { 1} { 2} \begin { pmatrix}
0 & 0 & 1 & & \\
& \ddots & \ddots & \ddots & \\
& & \ddots & \ddots & 1\\
& & & \ddots & 0\\
& & & & 0
\end { pmatrix}
+ \dots + \frac { 1} { (l-1)!} \begin { pmatrix}
0 & & 1\\
& \ddots & \\
& & 0
\end { pmatrix} \\
& = \begin { pmatrix}
1 & 1 & \frac { 1} { 2} & \frac { 1} { 3!} & \dots & \frac { 1} { (l-1)!} \\
& 1 & 1 & \frac { 1} { 2} & \dots & \frac { 1} { (l-2)!} \\
& & 1 & 1 & \dots & \vdots \\
& & & 1 & \ddots & \frac { 1} { 2} \\
& & & & \ddots & 1\\
& & & & & 1
\end { pmatrix} .
\end { align*}
Werden nun alle Erkenntnisse kombiniert, gilt für $ \e ^ { J _ i t } $ schließlich
\begin { align*}
2023-05-30 14:08:57 +02:00
\e ^ { J_ i t} & = \e ^ { (L_ i + N) t} = \e ^ { L_ i t + Nt} = \e ^ { L_ i t} \e ^ { Nt} \\
2023-05-27 23:24:34 +02:00
& = \begin { pmatrix}
2023-05-30 14:08:57 +02:00
\e ^ { \lambda _ i t} & & \\
& \ddots & \\
& & \e ^ { \lambda _ i t}
2023-05-27 23:24:34 +02:00
\end { pmatrix}
\begin { pmatrix}
1 & t & \frac { t^ 2} { 2} & \frac { t^ 3} { 3!} & \dots & \frac { t^ { l-1} } { (l-1)!} \\
& 1 & t & \frac { t^ 2} { 2} & \dots & \frac { t^ { l-2} } { (l-2)!} \\
& & 1 & x & \dots & \vdots \\
& & & 1 & \ddots & \frac { t^ 2} { 2} \\
& & & & \ddots & t\\
& & & & & 1
\end { pmatrix} .
\end { align*}
Für die Lösung eines~\hyperref [eq:cp] { C\textc { auchy} -Problems} mit einer nicht-diagonalisierbaren Matrix $ A = V J V ^ { - 1 } $ ,
gilt insgesamt also
\begin { align*}
\vec { y} (x) & = V \e ^ { (x - x_ 0) J} V^ { -1} \vec { y} _ 0\\
& = V \begin { pmatrix}
\e ^ { (x - x_ 0) J_ 1} & & \\
& \ddots & \\
& & \e ^ { (x - x_ 0) J_ n}
\end { pmatrix} V^ { -1} \vec { y} _ 0\\
& = V \begin { pmatrix}
\e ^ { (x - x_ 0) L_ 1} \e ^ { (x - x_ 0) N} & & \\
& \ddots & \\
& & \e ^ { (x - x_ 0) L_ n} \e ^ { (x - x_ 0) N}
\end { pmatrix} V^ { -1} \vec { y} _ 0.
\end { align*}