2023-05-30 19:36:58 +02:00
Wie in~\hyperref [thm:existenz-eindeutigkeit] { Satz~\ref * { thm:existenz-eindeutigkeit} } festgestellt wurde,
kann die Lösung eines~\hyperref [eq:cp] { C\textc { auchy} -Problems} mit der Matrixexponentialfunktion berechnet werden.
In diesem Abschnitt soll nun herausgearbeitet werden, wie sich die Matrixexponentialfunktion selbst berechnen lässt.
\subsection { Diagonale Matrizen} \label { subsec:diagonale-matrizen}
Zunächst werden diagonale Matrizen
\begin { equation*}
A = \diag \{ a_ 1,\dots ,a_ n\}
= \begin { pmatrix}
a_ 1 & & \\
& \ddots & \\
& & a_ 3
\end { pmatrix}
\end { equation*}
betrachtet.
\begin { theorem} \label { thm:matrixexponential-diagonal}
Sei eine Diagonalmatrix $ A = \diag \{ a _ 1 , \dots ,a _ n \} $ .
Dann gilt für die Matrixexponentialfunktion
\begin { equation*}
\e ^ { t A} = \diag \{ \e ^ { t a_ 1} ,\dots ,\e ^ { t a_ n} \} .
\end { equation*}
\end { theorem}
\begin { proof}
Es gilt
\begin { equation*}
A^ k = \begin { pmatrix}
a^ k_ 1 & & \\
& \ddots & \\
& & a^ k_ n
\end { pmatrix} .
\end { equation*}
Womit für die Matrixexponentialfunktion folgt, dass
\begin { alignat*} { 2}
\e ^ { t A}
& = \sum ^ \infty _ { k=0} \frac { (tA)^ k} { k!}
& & = \sum ^ \infty _ { k=0} \frac { t^ k A^ k} { k!} \\
& = \sum ^ \infty _ { k=0} \frac { t^ k} { k!}
\begin { pmatrix}
a^ k_ 1 & & \\
& \ddots & \\
& & a^ k_ n
\end { pmatrix}
& & = \sum ^ \infty _ { k=0}
\begin { pmatrix}
\frac { t^ k a^ k_ 1} { k!} & & \\
& \ddots & \\
& & \frac { t^ k a^ k_ n} { k!}
\end { pmatrix} \\
& = \begin { pmatrix}
\sum \limits ^ \infty _ { k=0} \frac { (t a_ 1)^ k} { k!} & & \\
& \ddots & \\
& & \sum \limits ^ \infty _ { k=0} \frac { (t a_ n)^ k} { k!}
\end { pmatrix}
& & = \begin { pmatrix}
\e ^ { t a_ 1} & & \\
& \ddots & \\
& & \e ^ { t a_ n}
\end { pmatrix}
\end { alignat*}
\end { proof}
\subsection { Diagonalisierbare Matrizen} \label { subsec:diagonalisierbare-matrizen}
Das Berechnen einer Matrixexponentialfunktion mit einer diagonalisierbaren Matrix $ A $ im Exponenten
kann auf den obigen Fall der~\hyperref [subsec:diagonale-matrizen] { diagonalen Matrizen} zurückgeführt werden.
\begin { definition} [Wiederholung]
Eine Matrix $ A $ heißt \emph { diagonalisierbar} , falls eine Diagonalmatrix $ D $ und eine reguläre Matrix $ A $ so existieren, dass
\begin { equation*}
A = S D S^ { -1}
\end { equation*}
gilt.
\end { definition}
\begin { lemma} \label { thm:matrixexponential-diagonalisierbar}
Sei $ A $ ähnlich zu $ B $ mit $ A = S B S ^ { - 1 } $ .
Dann gilt für die Matrixexponentialfunktion
\begin { equation*}
\e ^ { t A} = S \e ^ { t B} S^ { -1} .
\end { equation*}
\end { lemma}
\begin { proof}
Zuerst wird gezeigt, dass $ A ^ k = S B ^ k S ^ { - 1 } $ für $ k \in \NN $ :
\begin { alignat*} { 2}
A^ k & = (S B S^ { -1} )^ k & & = \underbrace { (S B S^ { -1} ) (S B S^ { -1} ) (S B S^ { -1} ) \dots (S B S^ { -1} )} _ { k \text { -mal} } \\
& = SB\underbrace { (S^ { -1} S)} _ { E} B \underbrace { (S^ { -1} S)} _ { E} \dots \underbrace { (S^ { -1} S)} _ { E} B S^ { -1}
& & = V \underbrace { L \cdots L} _ { k \text { -mal} } S^ { -1} \\
& = S B^ k S^ { -1}
\end { alignat*}
Damit folgt dann für die Matrixexponentialfunktion
\begin { alignat*} { 2}
\e ^ { t A} & = \e ^ { t \cdot S B S^ { -1} } & & = \sum ^ \infty _ { k=0} \frac { (t \cdot S B S^ { -1} )^ k} { k!} \\
& = \sum ^ \infty _ { k=0} \frac { t^ k (S B S^ { -1} )^ k} { k!} & & = \sum ^ \infty _ { k=0} \frac { t^ k \cdot S B^ k S^ { -1} } { k!} \\
& = V \left ( \sum ^ \infty _ { k=0} \frac { t^ k B^ k} { k!} \right ) S^ { -1} & & = V \left ( \sum ^ \infty _ { k=0} \frac { (t B)^ k} { k!} \right ) S^ { -1} \\
& = V e^ { t B} S^ { -1}
\end { alignat*}
\end { proof}
\begin { corollary}
Sei $ A $ diagonalisierbar mit $ A = S D S ^ { - 1 } $ .
Dann gilt für die Matrixexponentialfunktion
\begin { equation*}
\e ^ { t A} = S \e ^ { t D} S^ { -1} .
\end { equation*}
\end { corollary}
\begin { proof}
$ A $ ist nach Definition genau dann diagonalisierbar, wenn $ A $ zu einer Diagonalmatrix $ D $ ähnlich ist.
Also~\hyperref [thm:matrixexponential-diagonalisierbar] { Lemma~\ref * { thm:matrixexponential-diagonalisierbar} } .
\end { proof}
\subsection { Nicht-diagonalisierbare Matrizen} \label { subsec:nichtdiagonalisierbare-matrizen}
Jede Matrix $ A $ lässt sich auf eine \emph { J\textc { ordan} -Normalform} $ J = V ^ { - 1 } L V $ bringen.
Eine J\textc { ordan} -Normalform $ J $ ist eine Blockdiagonalmatrix der Form
\begin { gather*}
J = \begin { pmatrix}
J_ 1 & & \\
& \ddots & \\
& & J_ n
\end { pmatrix} \\
\intertext { mit J\textc { ordan} -Block}
J_ i = \begin { pmatrix}
\lambda _ i & 1 & & \\
& \lambda _ i & \ddots & \\
& & \ddots & 1 \\
& & & \lambda _ i
\end { pmatrix}
\qquad (i = 1,\dots ,n).
\end { gather*}
Das folgende \hyperref [thm:blockdiag-exp] { Lemma~\ref * { thm:blockdiag-exp} } lässt vermuten,
dass die gewonnenen Erkenntnisse aus~\autoref { subsec:diagonalisierbare-matrizen} zur Berechnung der
Matrixexponentialfunktion $ \e ^ { J } = \e ^ { V J _ i V ^ { - 1 } } $ anwendbar sein könnten.
\begin { lemma} \label { thm:blockdiag-exp}
Sei $ A \in \RR ^ { n \times n } $ eine Blockdiagonalmatrix
\begin { equation*}
A = \diag \left \{ A_ 1,\dots ,A_ m\right \}
= \begin { pmatrix}
A_ 1 & & \\
& \ddots & \\
& & A_ m
\end { pmatrix} ,
\end { equation*}
mit quadratischen Matrizen $ A _ 1 , \dots , A _ m $ .
Dann gilt
\begin { equation*}
\e ^ { t A} = \diag \left \{ \e ^ { t A_ 1} , \dots ,\e ^ { t A_ m} \right \} .
\end { equation*}
\end { lemma}
\begin { proof}
Beweis analog~\hyperref [thm:matrixexponential-diagonal] { Satz~\ref * { thm:matrixexponential-diagonal} }
\end { proof}
Zudem zeigt~\hyperref [thm:blockdiag-exp] { Lemma~\ref * { thm:blockdiag-exp} } ,
dass sich die Berechnung von $ \e ^ J $ auf die einzelnen $ \e ^ { J _ i } $ für $ i = 1 , \dots ,n $ reduzieren lässt.\\
Ein J\textc { ordan} -Block $ J _ i $ lässt sich weiter zerlegen zu
\begin { equation*}
J_ i = \begin { pmatrix}
\lambda _ i & 1 & & \\
& \lambda _ i & \ddots & \\
& & \ddots & 1 \\
& & & \lambda _ i
\end { pmatrix}
= \underbrace { \begin { pmatrix}
\lambda _ i & & \\
& \ddots & \\
& & \lambda _ i
\end { pmatrix} } _ { = L_ i}
+ \underbrace { \begin { pmatrix}
0 & 1 & & \\
& 0 & \ddots & \\
& & \ddots & 1 \\
& & & 0
\end { pmatrix} } _ { \eqqcolon N}
= L_ i + N.
\end { equation*}
\begin { definition} [Wiederholung]
Eine Matrix $ N $ heißt \emph { nilpotent} , falls ein $ l \in \NN $ so existiert, dass $ N ^ l = 0 $ .
\end { definition}
\begin { corollary}
Die Matrix $ N \in \NN ^ { l \times l } $ aus der Zerlegung $ J _ i = L _ i + N $ ist eine nilpotente Matrix mit $ N ^ l = 0 $ .
\end { corollary}
Betrachtet man den Vorgang des Potenzierens von $ N $ ausführlicher, erkennt man,
2023-05-30 20:03:14 +02:00
dass die Nebendiagonalen auf denen die $ 1 $ en stehen \enquote { nach oben-rechts hinaus} geschoben werden:
2023-05-30 19:36:58 +02:00
\begin { equation*}
N = \begin { pmatrix}
0 & 1 & & \\
& \ddots & \ddots & \\
& & \ddots & 1\\
& & & 0
\end { pmatrix} ,
N^ 2 = \begin { pmatrix}
0 & 0 & 1 & & \\
& \ddots & \ddots & \ddots & \\
& & \ddots & \ddots & 1\\
& & & \ddots & 0\\
& & & & 0
\end { pmatrix} ,
\dots ,
N^ { l-1} = \begin { pmatrix}
0 & & 1\\
& \ddots & \\
& & 0
\end { pmatrix} ,
N^ l = \mathfrak { 0}
\end { equation*}
\begin { lemma}
Die Matrizen $ L _ i $ und $ N $ aus der Zerlegung $ J _ i = L _ i + N $ kommutieren bzgl.\ dem Matrixprodukt.
\end { lemma}
\begin { proof}
\begin { equation*}
L_ i N = (\lambda _ i E) N = \lambda _ i (EN) = \lambda _ i (NE) = N (\lambda _ i E) = N L_ i,
\end { equation*}
\end { proof}
Damit gilt
\begin { equation*}
\e ^ { t (L_ i + N)} = \e ^ { t L_ i + t N} = \e ^ { t L_ i} \e ^ { t N} .
\end { equation*}
Da $ L _ i $ eine Diagonalmatrix ist, ist die Lösung von $ \e ^ { t L } $ bereits aus~\autoref { subsec:diagonale-matrizen} bekannt.
Für $ N $ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $ \e ^ { t N } $ ,
da ab einem $ l \in \NN $ gilt, dass $ N ^ l = N ^ { l + 1 } = \dots = 0 $ , d.h.
\begin { align*}
\e ^ { tN } & = \sum ^ \infty _ { k=0} \frac { (t N)^ k} { k!}
= \sum ^ { l-1} _ { k=0} \frac { (t N)^ k} { k!}
= E + t N + \frac { t^ 2} { 2} N^ 2 + \dots + \frac { t^ { l-1} } { (l-1)!} N^ { l-1} \\
& = E + t N + \frac { t^ 2} { 2} \begin { pmatrix}
0 & 0 & 1 & & \\
& \ddots & \ddots & \ddots & \\
& & \ddots & \ddots & 1\\
& & & \ddots & 0\\
& & & & 0
\end { pmatrix}
+ \dots + \frac { t^ { l-1} } { (l-1)!} \begin { pmatrix}
0 & & 1\\
& \ddots & \\
& & 0
\end { pmatrix} \\
& = \begin { pmatrix}
1 & t & \frac { t^ 2} { 2} & \frac { t^ 3} { 3!} & \dots & \frac { t^ { l-1} } { (l-1)!} \\
& 1 & t & \frac { t^ 2} { 2} & \dots & \frac { t^ { l-2} } { (l-2)!} \\
& & 1 & t & \ddots & \vdots \\
& & & 1 & \ddots & \frac { t^ 2} { 2} \\
& & & & \ddots & t\\
& & & & & 1
\end { pmatrix} .
\end { align*}
\begin { remark*}
Für die Lösung eines~\hyperref [eq:cp] { C\textc { auchy} -Problems} mit einer nicht-diagonalisierbaren Matrix $ A = V J V ^ { - 1 } $
mit J\textc { ordan} -Normalform $ J $ , gilt also insgesamt
\begin { align*}
\vec { y} (t) & = \e ^ { (t - t_ 0) A} \vec { y} _ 0 = \e ^ { (t - t_ 0) V L V^ { -1} } \vec { y} _ 0 = V \e ^ { (t - t_ 0) J} V^ { -1} \vec { y} _ 0\\
& = V \begin { pmatrix}
\e ^ { (t - t_ 0) J_ 1} & & \\
& \ddots & \\
& & \e ^ { (t - t_ 0) J_ n}
\end { pmatrix} V^ { -1} \vec { y} _ 0\\
& = V \begin { pmatrix}
\e ^ { (t - t_ 0) L_ 1} \e ^ { (t - t_ 0) N} & & \\
& \ddots & \\
& & \e ^ { (t - t_ 0) L_ n} \e ^ { (t - t_ 0) N}
\end { pmatrix} V^ { -1} \vec { y} _ 0.
\end { align*}
\end { remark*}
\begin { example*}
Gegeben sei das~\ref { eq:cp}
\begin { equation*}
\vec { y} '(t) = \underbrace { \begin { pmatrix} a & 1\\ 0 & a \end { pmatrix} } _ { = A} y(t),\ a \in \RR ,
\qquad \vec { y} (t_ 0 = 0) = \vec { y} _ 0 = \begin { pmatrix} y_ 1\\ y_ 2\end { pmatrix} .
\end { equation*}
$ A $ lässt sich zerlegen in eine Diagonalmatrix $ D $ und nilpotente Matrix $ N $ :
\begin { equation*}
A = \underbrace { \begin { pmatrix} a & 0\\ 0 & a \end { pmatrix} } _ { \eqqcolon D}
+ \underbrace { \begin { pmatrix} 0 & 1\\ 0 & 0 \end { pmatrix} } _ { \eqqcolon N}
\end { equation*}
Nach~\hyperref [thm:existenz-eindeutigkeit] { Satz~\ref * { thm:existenz-eindeutigkeit} } und~\autoref { sec:berechnung-matrixexponential} ist die Lösung gegeben durch
\begin { alignat*} { 2}
\vec { y} (t) & = \e ^ { t A} \vec { y} _ 0
& & = \e ^ { t (D + N)} \vec { y} _ 0\\
& = \e ^ { t D + t N} \vec { y} _ 0
& & = \e ^ { t D} \e ^ { t N} \vec { y} _ 0\\
& = \begin { pmatrix} \e ^ { t a} & 0\\ 0 & \e ^ { t a} \end { pmatrix} \begin { pmatrix} 1 & t\\ 0 & 1 \end { pmatrix} \vec { y} _ 0
& & = \begin { pmatrix} \e ^ { t a} & t \e ^ { t a} \\ 0 & \e ^ { t a} \end { pmatrix} \begin { pmatrix} y_ 1\\ y_ 2\end { pmatrix} \\
& = \begin { pmatrix} y_ 1 \e ^ { t a} + y_ 2 t \e ^ { t a} \\ y_ 2 \e ^ { t a} \end { pmatrix}
& & = \begin { pmatrix} \e ^ { t a} (y_ 1 + y_ 2 t)\\ y_ 2 \e ^ { t a} \end { pmatrix}
\end { alignat*}
\end { example*}