2023-05-30 19:36:58 +02:00
Wie in~\hyperref [thm:existenz-eindeutigkeit] { Satz~\ref * { thm:existenz-eindeutigkeit} } festgestellt wurde,
kann die Lösung eines~\hyperref [eq:cp] { C\textc { auchy} -Problems} mit der Matrixexponentialfunktion berechnet werden.
In diesem Abschnitt soll nun herausgearbeitet werden, wie sich die Matrixexponentialfunktion selbst berechnen lässt.
\subsection { Diagonale Matrizen} \label { subsec:diagonale-matrizen}
Zunächst werden diagonale Matrizen
\begin { equation*}
A = \diag \{ a_ 1,\dots ,a_ n\}
= \begin { pmatrix}
a_ 1 & & \\
& \ddots & \\
2023-06-06 16:49:15 +02:00
& & a_ n
\end { pmatrix} \in \CC ^ { n \times n}
2023-05-30 19:36:58 +02:00
\end { equation*}
betrachtet.
\begin { theorem} \label { thm:matrixexponential-diagonal}
Sei eine Diagonalmatrix $ A = \diag \{ a _ 1 , \dots ,a _ n \} $ .
Dann gilt für die Matrixexponentialfunktion
\begin { equation*}
\e ^ { t A} = \diag \{ \e ^ { t a_ 1} ,\dots ,\e ^ { t a_ n} \} .
\end { equation*}
\end { theorem}
\begin { proof}
Es gilt
\begin { equation*}
A^ k = \begin { pmatrix}
a^ k_ 1 & & \\
& \ddots & \\
& & a^ k_ n
\end { pmatrix} .
\end { equation*}
Womit für die Matrixexponentialfunktion folgt, dass
\begin { alignat*} { 2}
\e ^ { t A}
& = \sum ^ \infty _ { k=0} \frac { (tA)^ k} { k!}
& & = \sum ^ \infty _ { k=0} \frac { t^ k A^ k} { k!} \\
& = \sum ^ \infty _ { k=0} \frac { t^ k} { k!}
\begin { pmatrix}
a^ k_ 1 & & \\
& \ddots & \\
& & a^ k_ n
\end { pmatrix}
& & = \sum ^ \infty _ { k=0}
\begin { pmatrix}
\frac { t^ k a^ k_ 1} { k!} & & \\
& \ddots & \\
& & \frac { t^ k a^ k_ n} { k!}
\end { pmatrix} \\
& = \begin { pmatrix}
\sum \limits ^ \infty _ { k=0} \frac { (t a_ 1)^ k} { k!} & & \\
& \ddots & \\
& & \sum \limits ^ \infty _ { k=0} \frac { (t a_ n)^ k} { k!}
\end { pmatrix}
& & = \begin { pmatrix}
\e ^ { t a_ 1} & & \\
& \ddots & \\
& & \e ^ { t a_ n}
\end { pmatrix}
\end { alignat*}
\end { proof}
\subsection { Diagonalisierbare Matrizen} \label { subsec:diagonalisierbare-matrizen}
Das Berechnen einer Matrixexponentialfunktion mit einer diagonalisierbaren Matrix $ A $ im Exponenten
kann auf den obigen Fall der~\hyperref [subsec:diagonale-matrizen] { diagonalen Matrizen} zurückgeführt werden.
\begin { definition} [Wiederholung]
2023-06-06 16:49:15 +02:00
Eine Matrix $ A \in \CC ^ { n \times n } $ heißt \emph { diagonalisierbar} , falls eine Diagonalmatrix $ D $ und eine reguläre Matrix $ S $ so existieren, dass
2023-05-30 19:36:58 +02:00
\begin { equation*}
A = S D S^ { -1}
\end { equation*}
gilt.
\end { definition}
\begin { lemma} \label { thm:matrixexponential-diagonalisierbar}
Sei $ A $ ähnlich zu $ B $ mit $ A = S B S ^ { - 1 } $ .
Dann gilt für die Matrixexponentialfunktion
\begin { equation*}
\e ^ { t A} = S \e ^ { t B} S^ { -1} .
\end { equation*}
\end { lemma}
\begin { proof}
Zuerst wird gezeigt, dass $ A ^ k = S B ^ k S ^ { - 1 } $ für $ k \in \NN $ :
\begin { alignat*} { 2}
A^ k & = (S B S^ { -1} )^ k & & = \underbrace { (S B S^ { -1} ) (S B S^ { -1} ) (S B S^ { -1} ) \dots (S B S^ { -1} )} _ { k \text { -mal} } \\
& = SB\underbrace { (S^ { -1} S)} _ { E} B \underbrace { (S^ { -1} S)} _ { E} \dots \underbrace { (S^ { -1} S)} _ { E} B S^ { -1}
2023-06-06 16:49:15 +02:00
& & = S \underbrace { B \cdots B} _ { k \text { -mal} } S^ { -1} \\
2023-05-30 19:36:58 +02:00
& = S B^ k S^ { -1}
\end { alignat*}
Damit folgt dann für die Matrixexponentialfunktion
\begin { alignat*} { 2}
\e ^ { t A} & = \e ^ { t \cdot S B S^ { -1} } & & = \sum ^ \infty _ { k=0} \frac { (t \cdot S B S^ { -1} )^ k} { k!} \\
& = \sum ^ \infty _ { k=0} \frac { t^ k (S B S^ { -1} )^ k} { k!} & & = \sum ^ \infty _ { k=0} \frac { t^ k \cdot S B^ k S^ { -1} } { k!} \\
2023-06-02 16:04:04 +02:00
& = S \left ( \sum ^ \infty _ { k=0} \frac { t^ k B^ k} { k!} \right ) S^ { -1} & & = S \left ( \sum ^ \infty _ { k=0} \frac { (t B)^ k} { k!} \right ) S^ { -1} \\
& = S \e ^ { t B} S^ { -1}
2023-05-30 19:36:58 +02:00
\end { alignat*}
\end { proof}
\begin { corollary}
Sei $ A $ diagonalisierbar mit $ A = S D S ^ { - 1 } $ .
Dann gilt für die Matrixexponentialfunktion
\begin { equation*}
\e ^ { t A} = S \e ^ { t D} S^ { -1} .
\end { equation*}
\end { corollary}
\begin { proof}
$ A $ ist nach Definition genau dann diagonalisierbar, wenn $ A $ zu einer Diagonalmatrix $ D $ ähnlich ist.
Also~\hyperref [thm:matrixexponential-diagonalisierbar] { Lemma~\ref * { thm:matrixexponential-diagonalisierbar} } .
\end { proof}
\subsection { Nicht-diagonalisierbare Matrizen} \label { subsec:nichtdiagonalisierbare-matrizen}
2023-06-06 16:49:15 +02:00
Jede quadratische Matrix $ A $ lässt sich auf eine \emph { J\textc { ordan} -Normalform} $ J = S ^ { - 1 } A S $ bringen.
2023-05-30 19:36:58 +02:00
Eine J\textc { ordan} -Normalform $ J $ ist eine Blockdiagonalmatrix der Form
\begin { gather*}
J = \begin { pmatrix}
J_ 1 & & \\
& \ddots & \\
2023-06-06 16:49:15 +02:00
& & J_ k
2023-05-30 19:36:58 +02:00
\end { pmatrix} \\
\intertext { mit J\textc { ordan} -Block}
J_ i = \begin { pmatrix}
\lambda _ i & 1 & & \\
& \lambda _ i & \ddots & \\
& & \ddots & 1 \\
& & & \lambda _ i
\end { pmatrix}
2023-06-06 16:49:15 +02:00
\qquad (i = 1,\dots ,k).
2023-05-30 19:36:58 +02:00
\end { gather*}
Das folgende \hyperref [thm:blockdiag-exp] { Lemma~\ref * { thm:blockdiag-exp} } lässt vermuten,
dass die gewonnenen Erkenntnisse aus~\autoref { subsec:diagonalisierbare-matrizen} zur Berechnung der
2023-06-06 16:49:15 +02:00
Matrixexponentialfunktion $ \e ^ { A } = \e ^ { S J S ^ { - 1 } } $ anwendbar sein könnten.
2023-05-30 19:36:58 +02:00
\begin { lemma} \label { thm:blockdiag-exp}
2023-06-06 16:49:15 +02:00
Sei $ A \in \CC ^ { n \times n } $ eine Blockdiagonalmatrix
2023-05-30 19:36:58 +02:00
\begin { equation*}
2023-06-06 16:49:15 +02:00
A = \diag \left \{ A_ 1,\dots ,A_ k\right \}
2023-05-30 19:36:58 +02:00
= \begin { pmatrix}
A_ 1 & & \\
& \ddots & \\
2023-06-06 16:49:15 +02:00
& & A_ k
2023-05-30 19:36:58 +02:00
\end { pmatrix} ,
\end { equation*}
2023-06-06 16:49:15 +02:00
mit quadratischen Matrizen $ A _ 1 , \dots , A _ k $ .
2023-05-30 19:36:58 +02:00
Dann gilt
\begin { equation*}
2023-06-06 16:49:15 +02:00
\e ^ { t A} = \diag \left \{ \e ^ { t A_ 1} , \dots ,\e ^ { t A_ k} \right \} .
2023-05-30 19:36:58 +02:00
\end { equation*}
\end { lemma}
\begin { proof}
Beweis analog~\hyperref [thm:matrixexponential-diagonal] { Satz~\ref * { thm:matrixexponential-diagonal} }
\end { proof}
Zudem zeigt~\hyperref [thm:blockdiag-exp] { Lemma~\ref * { thm:blockdiag-exp} } ,
2023-06-06 16:49:15 +02:00
dass sich die Berechnung von $ \e ^ J $ auf die einzelnen $ \e ^ { J _ i } $ für $ i = 1 , \dots ,k $ reduzieren lässt.
2023-06-01 21:14:21 +02:00
Dafür werden im Folgenden die J\textc { ordan} -Blöcke $ J _ i $ betrachtet,
denn ein J\textc { ordan} -Block $ J _ i $ lässt sich weiter zerlegen in
2023-05-30 19:36:58 +02:00
\begin { equation*}
J_ i = \begin { pmatrix}
\lambda _ i & 1 & & \\
& \lambda _ i & \ddots & \\
& & \ddots & 1 \\
& & & \lambda _ i
\end { pmatrix}
= \underbrace { \begin { pmatrix}
\lambda _ i & & \\
& \ddots & \\
& & \lambda _ i
2023-06-06 16:49:15 +02:00
\end { pmatrix} } _ { = D_ i}
2023-05-30 19:36:58 +02:00
+ \underbrace { \begin { pmatrix}
0 & 1 & & \\
& 0 & \ddots & \\
& & \ddots & 1 \\
& & & 0
\end { pmatrix} } _ { \eqqcolon N}
2023-06-06 16:49:15 +02:00
= D_ i + N.
2023-05-30 19:36:58 +02:00
\end { equation*}
\begin { definition} [Wiederholung]
2023-06-06 16:49:15 +02:00
Eine Matrix $ N $ heißt \emph { nilpotent} , falls ein $ m \in \NN $ so existiert, dass $ N ^ m = 0 $ .
2023-05-30 19:36:58 +02:00
\end { definition}
\begin { corollary}
2023-06-06 16:49:15 +02:00
Die $ ( m \times m ) $ -Matrix $ N $ aus der Zerlegung $ J _ i = D _ i + N $ ist eine nilpotente Matrix mit $ N ^ m = 0 $ .
2023-05-30 19:36:58 +02:00
\end { corollary}
Betrachtet man den Vorgang des Potenzierens von $ N $ ausführlicher, erkennt man,
2023-06-06 16:49:15 +02:00
dass die Nebendiagonalen auf denen die $ 1 $ en stehen \enquote { nach oben-rechts hinaus} geschoben werden und ab der $ m $ -ten Potenz die Nullmatrix ist:
2023-05-30 19:36:58 +02:00
\begin { equation*}
N = \begin { pmatrix}
0 & 1 & & \\
& \ddots & \ddots & \\
& & \ddots & 1\\
& & & 0
\end { pmatrix} ,
N^ 2 = \begin { pmatrix}
0 & 0 & 1 & & \\
& \ddots & \ddots & \ddots & \\
& & \ddots & \ddots & 1\\
& & & \ddots & 0\\
& & & & 0
\end { pmatrix} ,
\dots ,
2023-06-06 16:49:15 +02:00
N^ { m-1} = \begin { pmatrix}
2023-05-30 19:36:58 +02:00
0 & & 1\\
& \ddots & \\
& & 0
\end { pmatrix} ,
2023-06-06 16:49:15 +02:00
N^ m = \vec { 0}
2023-05-30 19:36:58 +02:00
\end { equation*}
\begin { lemma}
2023-06-06 16:49:15 +02:00
Die Matrizen $ D _ i $ und $ N $ aus der Zerlegung $ J _ i = D _ i + N $ kommutieren bzgl.\ der Matrixmultiplikation.
2023-05-30 19:36:58 +02:00
\end { lemma}
\begin { proof}
\begin { equation*}
2023-06-06 16:49:15 +02:00
D_ i N = (\lambda _ i E) N = \lambda _ i (EN) = \lambda _ i (NE) = N (\lambda _ i E) = N D_ i,
2023-05-30 19:36:58 +02:00
\end { equation*}
\end { proof}
Damit gilt
\begin { equation*}
2023-06-06 16:49:15 +02:00
\e ^ { t (D_ i + N)} = \e ^ { t D_ i + t N} = \e ^ { t D_ i} \e ^ { t N} .
2023-05-30 19:36:58 +02:00
\end { equation*}
2023-06-06 16:49:15 +02:00
Da $ D _ i $ eine Diagonalmatrix ist, ist die Lösung von $ \e ^ { t D _ i } $ bereits aus~\autoref { subsec:diagonale-matrizen} bekannt.
2023-05-30 19:36:58 +02:00
Für $ N $ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $ \e ^ { t N } $ ,
2023-06-06 16:49:15 +02:00
da ab einem $ m \in \NN $ gilt, dass $ N ^ m = N ^ { m + 1 } = \dots = 0 $ , d.h.
2023-05-30 19:36:58 +02:00
\begin { align*}
\e ^ { tN } & = \sum ^ \infty _ { k=0} \frac { (t N)^ k} { k!}
= \sum ^ { l-1} _ { k=0} \frac { (t N)^ k} { k!}
2023-06-06 16:49:15 +02:00
= E + t N + \frac { t^ 2} { 2} N^ 2 + \dots + \frac { t^ { m-1} } { (m-1)!} N^ { m-1} \\
2023-05-30 19:36:58 +02:00
& = E + t N + \frac { t^ 2} { 2} \begin { pmatrix}
0 & 0 & 1 & & \\
& \ddots & \ddots & \ddots & \\
& & \ddots & \ddots & 1\\
& & & \ddots & 0\\
& & & & 0
\end { pmatrix}
2023-06-06 16:49:15 +02:00
+ \dots + \frac { t^ { m-1} } { (m-1)!} \begin { pmatrix}
2023-05-30 19:36:58 +02:00
0 & & 1\\
& \ddots & \\
& & 0
\end { pmatrix} \\
& = \begin { pmatrix}
2023-06-06 16:49:15 +02:00
1 & t & \frac { t^ 2} { 2} & \frac { t^ 3} { 3!} & \dots & \frac { t^ { m-1} } { (m-1)!} \\
& 1 & t & \frac { t^ 2} { 2} & \dots & \frac { t^ { m-2} } { (m-2)!} \\
2023-05-30 19:36:58 +02:00
& & 1 & t & \ddots & \vdots \\
& & & 1 & \ddots & \frac { t^ 2} { 2} \\
& & & & \ddots & t\\
& & & & & 1
\end { pmatrix} .
\end { align*}
\begin { remark*}
2023-06-06 16:49:15 +02:00
Für die Lösung eines~\hyperref [eq:cp] { C\textc { auchy} -Problems} mit einer nicht-diagonalisierbaren Matrix $ A = S J S ^ { - 1 } $
2023-05-30 19:36:58 +02:00
mit J\textc { ordan} -Normalform $ J $ , gilt also insgesamt
\begin { align*}
2023-06-06 16:49:15 +02:00
\vec { u} (t) & = \e ^ { (t - t_ 0) A} \vec { u} _ 0 = \e ^ { (t - t_ 0) S J S^ { -1} } \vec { u} _ 0 = S \e ^ { (t - t_ 0) J} S^ { -1} \vec { u} _ 0\\
& = S \begin { pmatrix}
2023-05-30 19:36:58 +02:00
\e ^ { (t - t_ 0) J_ 1} & & \\
& \ddots & \\
2023-06-06 16:49:15 +02:00
& & \e ^ { (t - t_ 0) J_ k}
\end { pmatrix} S^ { -1} \vec { u} _ 0\\
& = S \begin { pmatrix}
\e ^ { (t - t_ 0) D_ 1} \e ^ { (t - t_ 0) N} & & \\
2023-05-30 19:36:58 +02:00
& \ddots & \\
2023-06-06 16:49:15 +02:00
& & \e ^ { (t - t_ 0) D_ k} \e ^ { (t - t_ 0) N}
\end { pmatrix} S^ { -1} \vec { u} _ 0.
2023-05-30 19:36:58 +02:00
\end { align*}
\end { remark*}
\begin { example*}
2023-06-06 16:49:15 +02:00
Gegeben sei das~\hyperref [eq:cp] { C\textc { auchy} -Problem}
2023-05-30 19:36:58 +02:00
\begin { equation*}
2023-06-06 16:49:15 +02:00
\vec { u} '(t) = \underbrace { \begin { pmatrix} a & 1\\ 0 & a \end { pmatrix} } _ { \eqqcolon A} \vec { u} (t),\ a \in \RR ,
\qquad \vec { u} _ 0 \coloneqq \vec { u} (t_ 0 = 0) = \begin { pmatrix} u_ 1\\ u_ 2\end { pmatrix} .
2023-05-30 19:36:58 +02:00
\end { equation*}
$ A $ lässt sich zerlegen in eine Diagonalmatrix $ D $ und nilpotente Matrix $ N $ :
\begin { equation*}
A = \underbrace { \begin { pmatrix} a & 0\\ 0 & a \end { pmatrix} } _ { \eqqcolon D}
+ \underbrace { \begin { pmatrix} 0 & 1\\ 0 & 0 \end { pmatrix} } _ { \eqqcolon N}
\end { equation*}
Nach~\hyperref [thm:existenz-eindeutigkeit] { Satz~\ref * { thm:existenz-eindeutigkeit} } und~\autoref { sec:berechnung-matrixexponential} ist die Lösung gegeben durch
\begin { alignat*} { 2}
2023-06-01 21:14:21 +02:00
\vec { u} (t) & = \e ^ { t A} \vec { u} _ 0
& & = \e ^ { t (D + N)} \vec { u} _ 0\\
& = \e ^ { t D + t N} \vec { u} _ 0
& & = \e ^ { t D} \e ^ { t N} \vec { u} _ 0\\
& = \begin { pmatrix} \e ^ { t a} & 0\\ 0 & \e ^ { t a} \end { pmatrix} \begin { pmatrix} 1 & t\\ 0 & 1 \end { pmatrix} \vec { u} _ 0
2023-06-06 16:49:15 +02:00
& & = \begin { pmatrix} \e ^ { t a} & t \e ^ { t a} \\ 0 & \e ^ { t a} \end { pmatrix} \begin { pmatrix} u_ 1\\ u_ 2\end { pmatrix} \\
& = \begin { pmatrix} u_ 1 \e ^ { t a} + u_ 2 t \e ^ { t a} \\ u_ 2 \e ^ { t a} \end { pmatrix}
& & = \begin { pmatrix} \e ^ { t a} (u_ 1 + u_ 2 t)\\ u_ 2 \e ^ { t a} \end { pmatrix}
2023-05-30 19:36:58 +02:00
\end { alignat*}
\end { example*}