1
0
proseminar_algebra/sections/03_anwendung_auf_jnf.tex
2023-05-27 23:24:34 +02:00

286 lines
12 KiB
TeX

Die gewonnenen Erkenntnisse können nun dazu genutzt werden, um Lösungen für homogene lineare Differentialgleichungssysteme zu finden.
\subsection{Diagonale Matrizen}\label{subsec:03-01}
Zunächst werden diagonale Matrizen $A = \diag\{a_1,\dots,a_n\}$ betrachtet.
Vorgegeben sei also eine Diagonalmatrix
\begin{equation*}
A = \diag\{a_1,\dots,a_n\}
= \begin{pmatrix}
a_1 & & \\
& \ddots & \\
& & a_3
\end{pmatrix}.
\end{equation*}
Für ein~\ref{eq:dgls} liegen dann die $n$ unabhängigen Differentialgleichungen
\begin{equation*}
y'_i(x) = a_i y_i(x) \qquad (i = 1,\dots,n)
\end{equation*}
vor, deren Lösungen zu einem gegebenen Anfangswert $\vec{y}_0 = (y_{0_1},\dots,y_{0_n})^T$ durch
\begin{equation*}
y_i(x) = \e^{(x - x_0) a_i} y_{0_i} \qquad (i = 1,\dots,n)
\end{equation*}
gegeben sind.
Mittels Matrixexponentialfunktion lässt sich die Lösung also durch
\begin{equation*}
\vec{y}(x) = \e^{(x - x_0) A}
= \begin{pmatrix}
\e^{(x - x_0) a_1} & & \\
& \ddots & \\
& & \e^{(x - x_0) a_n}
\end{pmatrix}
\end{equation*}
angeben.
\subsection{Diagonalisierbare Matrizen}\label{subsec:03-02}
Das Lösen eines~\ref{eq:dgls} mit einer diagonalisierbaren Koeffizientenmatrix $A$ kann auf den obigen Fall der~\nameref{subsec:03-01}
zurückgeführt werden.
Dazu wird $A$ durch eine Diagonalmatrix $L = \diag\{\lambda_1,\dots,\lambda_n\}$ aus den Eigenwerten $\lambda_i$ ($i = 1,\dots,n$)
und durch die Matrix $V$ der zugehörigen Eigenvektoren mit
\begin{equation*}
A = V L V^{-1}
\end{equation*}
dargestellt.
\begin{theorem}\label{thm:diagbar-cp-solution}
Sei $A = V L V^{-1}$ eine diagonalisierbare Matrix mit $L = \diag\{\lambda_1,\dots,\lambda_n\}$,
wobei $\lambda_i$ ($i = 1,\dots,n$) die Eigenwerte und $V$ die Matrix mit den zugehörigen Eigenvektoren von $A$ sind.
Dann ist die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems}
\begin{gather*}
\vec{y}'(x) = A \vec{y}(x) = V L V^{-1} \vec{y}(x), \qquad \vec{y}_0 = (y_{1_0},\dots,y_{n_0})^T\\
\intertext{durch}
\begin{aligned}
\vec{y}(x)
&= V \e^{(x - x_0) L} V^{-1} \vec{y}_0\\
\big( &= \left. V \diag\left\{\e^{(x - x_0) \lambda_1}, \dots,\e^{(x - x_0) \lambda_n}\right\} V^{-1} \right)
\end{aligned}
\end{gather*}
gegeben.
\end{theorem}
\begin{proof}
Das~\ref{eq:dgls}
\begin{gather*}
\vec{y}'(x) = V L V^{-1} \vec{y}(x)\\
\intertext{lässt sich zu}
V^{-1} \vec{y}'(x) = L V^{-1} \vec{y}(x).
\end{gather*}
umformen.
Durch Substitution von $\vec{u} = V^{-1} \vec{y}$ ergibt sich das~\ref{eq:dgls}
\begin{equation}\tag{$\triangle$}\label{eq:03-02-01}
\vec{u}'(x) = L \vec{u}(x), \qquad \vec{u}_0 \coloneqq \vec{u}(x_0) = V^{-1} \vec{y}(x_0) = V^{-1} \vec{y}_0.
\end{equation}
Da $L$ eine Diagonalmatrix ist, folgt mit~\autoref{subsec:03-01}, dass
\begin{equation*}
\vec{u}(x) = \e^{(x - x_0) L} \vec{u}_0
\end{equation*}
die Lösung von~\eqref{eq:03-02-01} ist.
Rücksubstitution ergibt schließlich die Lösung
\begin{alignat*}{2}
&& \vec{u}(x) &= \e^{(x - x_0) L} \vec{u}_0\\
\Leftrightarrow\quad && V^{-1} \vec{y} &= \e^{(x - x_0) L} V^{-1} \vec{y}_0\\
\Leftrightarrow\quad && \vec{y} &= V \e^{(x - x_0) L} V^{-1} \vec{y}_0.
\end{alignat*}
\end{proof}
\begin{corollary}
Sei $A$ diagonalisierbar mit $A = V L V^{-1}$.
Dann gilt für die Matrixexponentialfunktion
\begin{equation*}
\e^{A} = V \e^{L} V^{-1}.
\end{equation*}
\end{corollary}
\begin{proof}
Zuerst wird gezeigt, dass $A^k = V L^k V^{-1}$ für $k \in \NN$:
\begin{alignat*}{2}
A^k &= (V L V^{-1})^k &&= \underbrace{(V L V^{-1}) (V L V^{-1}) (V L V^{-1}) \dots (V L V^{-1})}_{k \text{-mal}}\\
&= V L \underbrace{(V^{-1} V)}_{E} L \underbrace{(V^{-1} V)}_{E} \dots \underbrace{(V^{-1} V)}_{E} L V^{-1} &&= V \underbrace{L \cdots L}_{k \text{-mal}} V^{-1}\\
&= V L^k V^{-1}
\end{alignat*}
Damit folgt dann für die Matrixexponentialfunktion
\begin{alignat*}{2}
\e^{A} &= \e^{V L V^{-1}} &&= \sum^\infty_{k=0} \frac{(V L V^{-1})^k}{k!}\\
&= \sum^\infty_{k=0} \frac{V L^k V^{-1}}{k!} &&= V \left( \sum^\infty_{k=0} \frac{L^k}{k!} \right) V^{-1}\\
&= V e^L V^{-1}
\end{alignat*}
\end{proof}
\emph{Bemerkung:} \hyperref[thm:diagbar-cp-solution]{Folgerung~\ref*{thm:diagbar-cp-solution}} lässt sich leicht ersichtlich auf einen allgemeinen Fall von ähnlichen Matrizen $A = S B S^{-1}$ übertragen, d.h.
\begin{equation*}
\e^A = \e^{S B S^{-1}} = S \e^B S^{-1}.
\end{equation*}
\subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:03-03}
Jede Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = V^{-1} A V$ bringen.
Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form
\begin{gather*}
J = \begin{pmatrix}
J_1 & & \\
& \ddots & \\
& & J_n
\end{pmatrix}\\
\intertext{mit J\textc{ordan}-Kästchen}
J_i = \begin{pmatrix}
\lambda & 1 & & \\
& \lambda & \ddots & \\
& & \ddots & 1 \\
& & & \lambda
\end{pmatrix}
\qquad (i = 1,\dots,n).
\end{gather*}
Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten,
dass die gewonnenen Erkenntnisse aus~\autoref{subsec:03-02} anwendbar sein könnten.
\begin{lemma}\label{thm:blockdiag-exp}
Sei $A \in \RR^{nd \times nd}$ eine Blockdiagonalmatrix
\begin{equation*}
A = \begin{pmatrix}
A_1 & & \\
& \ddots & \\
& & A_n
\end{pmatrix},
\end{equation*}
mit quadratische Matrizen $A_1, \dots, A_n \in \RR^{d \times d}$.
Dann gilt
\begin{equation*}
\e^A = \begin{pmatrix}
\e^{A_1} & & \\
& \ddots & \\
& & \e^{A_n}
\end{pmatrix}.
\end{equation*}
\end{lemma}
\begin{proof}
Es gilt
\begin{equation*}
A^k = \begin{pmatrix}
A^k_1 & & \\
& \ddots & \\
& & A^k_n
\end{pmatrix}.
\end{equation*}
Damit folgt dann
\begin{alignat*}{2}
\e^A
&= \sum^\infty_{k=0} \frac{A^k}{k!}
&&= \sum^\infty_{k=0}
\begin{pmatrix}
\frac{A^k_1}{k!} & & \\
& \ddots & \\
& & \frac{A^k_n}{k!}
\end{pmatrix}\\
&= \sum^\infty_{k=0}
\begin{pmatrix}
\frac{A^k_1}{k!} & & \\
& \ddots & \\
& & \frac{A^k_n}{k!}
\end{pmatrix}
&&= \begin{pmatrix}
\sum^\infty_{k=0} \frac{A^k_1}{k!} & & \\
& \ddots & \\
& & \sum^\infty_{k=0} \frac{A^k_n}{k!}
\end{pmatrix}\\
&= \begin{pmatrix}
\e^{A_1} & & \\
& \ddots & \\
& & \e^{A_n}
\end{pmatrix}
\end{alignat*}
\end{proof}
Es ergeben sich also Lösungen eines gegebenen~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$ durch
\begin{equation*}
\vec{y}(x) = V \e^{(x - x_0) J} V^{-1} \vec{y}_0.
\end{equation*}
Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}},
dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,n$ reduzieren lässt.\\
Ein J\textc{ordan}-Kästchen $J_i$ lässt sich weiter zerlegen zu
\begin{equation*}
J_i = \begin{pmatrix}
\lambda & 1 & & \\
& \lambda & \ddots & \\
& & \ddots & 1 \\
& & & \lambda
\end{pmatrix}
= \underbrace{\begin{pmatrix}
\lambda & & \\
& \ddots & \\
& & \lambda
\end{pmatrix}}_{= L}
+ \underbrace{\begin{pmatrix}
0 & 1 & & \\
& 0 & \ddots & \\
& & \ddots & 1 \\
& & & 0
\end{pmatrix}}_{\eqqcolon N}
= L + N.
\end{equation*}
Dabei ist $N$ eine \emph{nilpotente} Matrix, d.h.\ es existiert ein $l \in \NN$ so, dass $N^l = 0$.
Zudem kommutieren die Matrizen $L$ und $N$, da
\begin{gather*}
L N = (\lambda E) N = \lambda (EN) = \lambda (NE) = N (\lambda E) = N L,\\
\intertext{weshalb}
\e^{L + N} = \e^L \e^N
\end{gather*}
gilt.
Da $L$ eine Diagonalmatrix ist, ist die Lösung von $\e^L$ bereits aus~\autoref{subsec:03-01} bekannt.
Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^N$,
da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
\begin{align*}
\e^N &= \sum^\infty_{k=0} \frac{N^k}{k!}
= \sum^{l-1}_{k=0} \frac{N^k}{k!}
= E + N + \frac{1}{2} N^2 + \dots + \frac{1}{(l-1)!} N^{l-1}\\
&= E + N + \frac{1}{2} \begin{pmatrix}
0 & 0 & 1 & & \\
& \ddots & \ddots & \ddots & \\
& & \ddots & \ddots & 1\\
& & & \ddots & 0\\
& & & & 0
\end{pmatrix}
+ \dots + \frac{1}{(l-1)!} \begin{pmatrix}
0 & & 1\\
& \ddots & \\
& & 0
\end{pmatrix}\\
&= \begin{pmatrix}
1 & 1 & \frac{1}{2} & \frac{1}{3!} & \dots & \frac{1}{(l-1)!}\\
& 1 & 1 & \frac{1}{2} & \dots & \frac{1}{(l-2)!}\\
& & 1 & 1 & \dots & \vdots\\
& & & 1 & \ddots & \frac{1}{2}\\
& & & & \ddots & 1\\
& & & & & 1
\end{pmatrix}.
\end{align*}
Werden nun alle Erkenntnisse kombiniert, gilt für $\e^{J_i t}$ schließlich
\begin{align*}
\e^{J_i t} &= \e^{(L + N) t} = \e^{Lt + Nt} = \e^{Lt} \e^{Nt}\\
&= \begin{pmatrix}
\e^{\lambda t} & & \\
& \ddots & \\
& & \e^{\lambda t}
\end{pmatrix}
\begin{pmatrix}
1 & t & \frac{t^2}{2} & \frac{t^3}{3!} & \dots & \frac{t^{l-1}}{(l-1)!}\\
& 1 & t & \frac{t^2}{2} & \dots & \frac{t^{l-2}}{(l-2)!}\\
& & 1 & x & \dots & \vdots\\
& & & 1 & \ddots & \frac{t^2}{2}\\
& & & & \ddots & t\\
& & & & & 1
\end{pmatrix}.
\end{align*}
Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$,
gilt insgesamt also
\begin{align*}
\vec{y}(x) &= V \e^{(x - x_0) J} V^{-1} \vec{y}_0\\
&= V \begin{pmatrix}
\e^{(x - x_0) J_1} & & \\
& \ddots & \\
& & \e^{(x - x_0) J_n}
\end{pmatrix} V^{-1} \vec{y}_0\\
&= V \begin{pmatrix}
\e^{(x - x_0) L_1} \e^{(x - x_0) N} & & \\
& \ddots & \\
& & \e^{(x - x_0) L_n} \e^{(x - x_0) N}
\end{pmatrix} V^{-1} \vec{y}_0.
\end{align*}