Refactor: add title, refactor chapter 3, combine ch1 and ch2
This commit is contained in:
parent
86b442d42c
commit
42802819fb
@ -57,6 +57,8 @@
|
||||
|
||||
\DeclareTextFontCommand{\emph}{\boldmath\bfseries}
|
||||
|
||||
\allowdisplaybreaks
|
||||
|
||||
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
||||
% new commands and math operatos %
|
||||
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
||||
@ -107,7 +109,8 @@
|
||||
% style for examples: "Beispiel:"
|
||||
\newtheoremstyle{nobreak*}{}{}{\normalfont}{}{\bfseries}{}{ }{}
|
||||
\theoremstyle{nobreak*}
|
||||
\newtheorem*{remark*}{Bemerkung:}
|
||||
\newtheorem*{example*}{Beispiel:}
|
||||
|
||||
% proofs with bold name and qed at end
|
||||
\renewenvironment{proof}[1][\proofname]{\textbf{#1.} }{\nobreak\hfill\ensuremath{\blacksquare}}
|
||||
\renewenvironment{proof}[1][\proofname]{\textbf{#1.} }{\nobreak\hfill\ensuremath{\blacksquare}\par}
|
@ -5,7 +5,8 @@
|
||||
|
||||
\subject{Proseminar}
|
||||
\title{
|
||||
Tbd
|
||||
Berechnung der Matrixexponentialfunktion und
|
||||
Anwendung auf homogene lineare Differentialgleichungssysteme mit konstanten Koeffizienten
|
||||
}
|
||||
\subtitle{TU Bergakademie Freiberg}
|
||||
\author{Niklas Birk}
|
||||
@ -24,13 +25,10 @@
|
||||
|
||||
\newpage
|
||||
|
||||
\section{Lineare Differentialgleichungssysteme mit konstanten Koeffizienten}\label{sec:01}
|
||||
\input{sections/01_ldgls}
|
||||
\section{Lineare Differentialgleichungssysteme mit konstanten Koeffizienten und Anwendung der Matrixexponentialfunktion}\label{sec:dgls-matrixexponential}
|
||||
\input{sections/01_ldgls_matrixexponential}
|
||||
|
||||
\section{Existenz und Eindeutigkeit der Lösung}\label{sec:02}
|
||||
\input{sections/02_existenz_eindeutigkeit}
|
||||
|
||||
\section{Anwendung der Matrixexponentialfunktion auf homogene lineare DGLS}\label{sec:03}
|
||||
\input{sections/03_anwendung_auf_jnf}
|
||||
\section{Berechnung der Matrixexponentialfunktion}\label{sec:berechnung-matrixexponential}
|
||||
\input{sections/02_berechnung_matrixexponential}
|
||||
|
||||
\end{document}
|
@ -1,19 +0,0 @@
|
||||
\begin{definition}
|
||||
Seien $y_1,\dots,y_n: I \subseteq \RR \to \RR$ differenzierbar und $a_{jk} \in \RR$ für $j,k = 1,\dots,n$.
|
||||
Dann heißt
|
||||
\begin{equation*}
|
||||
\begin{aligned}
|
||||
y'_1(x) &= a_{11} y_1(x) + \dots + a_{1n} y_n(x)\\
|
||||
y'_2(x) &= a_{21} y_1(x) + \dots + a_{2n} y_n(x)\\
|
||||
&\vdots\\
|
||||
y'_n(x) &= a_{n1} y_1(x) + \dots + a_{nn} y_n(x)
|
||||
\end{aligned}
|
||||
\end{equation*}
|
||||
ein \emph{homogenes lineares Differentialgleichungssystem} (DGLS) (1. Ordnung).\\
|
||||
Das obige System lässt sich auch kompakt in der Form
|
||||
\begin{equation}\tag{DGLS}\label{eq:dgls}
|
||||
\vec{y}'(x) = A \vec{y}(x)
|
||||
\end{equation}
|
||||
schreiben, wobei $\vec{y}(x) = \begin{pmatrix} y_1(x)\\ \vdots\\ y_n(x) \end{pmatrix}, \vec{y}'(x) = \begin{pmatrix} y'_1(x)\\ \vdots\\ y'_n(x) \end{pmatrix}$
|
||||
und $A \in \RR^{n \times n}$
|
||||
\end{definition}
|
56
sections/01_ldgls_matrixexponential.tex
Normal file
56
sections/01_ldgls_matrixexponential.tex
Normal file
@ -0,0 +1,56 @@
|
||||
\begin{definition}
|
||||
Seien $y_1,\dots,y_n: \RR \to \RR$ differenzierbar und $a_{jk} \in \RR$ für $j,k = 1,\dots,n$.
|
||||
Dann heißt
|
||||
\begin{equation*}
|
||||
\begin{aligned}
|
||||
y'_1(t) &= a_{11} y_1(t) + \dots + a_{1n} y_n(t)\\
|
||||
y'_2(t) &= a_{21} y_1(t) + \dots + a_{2n} y_n(t)\\
|
||||
&\vdots\\
|
||||
y'_n(t) &= a_{n1} y_1(t) + \dots + a_{nn} y_n(t)
|
||||
\end{aligned}
|
||||
\end{equation*}
|
||||
ein \emph{homogenes lineares Differentialgleichungssystem} (DGLS) (1. Ordnung).\\
|
||||
Das obige System lässt sich auch kompakt in der Form
|
||||
\begin{equation}\tag{DGLS}\label{eq:dgls}
|
||||
\vec{y}'(t) = A \vec{y}(t)
|
||||
\end{equation}
|
||||
schreiben, wobei $\vec{y}(t) = \begin{pmatrix} y_1(t)\\ \vdots\\ y_n(t) \end{pmatrix}, \vec{y}'(t) = \begin{pmatrix} y'_1(t)\\ \vdots\\ y'_n(t) \end{pmatrix}$
|
||||
und $A \in \RR^{n \times n}$
|
||||
\end{definition}
|
||||
|
||||
\begin{definition}
|
||||
Ein~\ref{eq:dgls} zusammen mit einer Anfangsbedingung
|
||||
\begin{equation*}
|
||||
\vec{y}(t_0) = \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix} \in \RR^n
|
||||
\end{equation*}
|
||||
an einer Stelle $t_0 \in \RR$ nennt man ein \emph{C\textc{auchy}-Problem} oder \emph{Anfangswertproblem}.
|
||||
\end{definition}
|
||||
|
||||
\begin{theorem}[Existenz und Eindeutigkeit]\label{thm:existenz-eindeutigkeit}
|
||||
Vorgelegt sei ein C\textc{auchy}-Problem
|
||||
\begin{equation}\tag{CP}\label{eq:cp}
|
||||
\vec{y}'(t) = A \vec{y}(t), \qquad \vec{y}(t_0) = \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix}.
|
||||
\end{equation}
|
||||
Dann besitzt~\eqref{eq:cp} eine eindeutig bestimmte Lösung $\vec{y}$ auf $\RR$ mit der Form
|
||||
\begin{equation}\tag{$\ast$}\label{eq:solution}
|
||||
\vec{y}(t) = e^{(t - t_0) A} \vec{y}_0.
|
||||
\end{equation}
|
||||
\end{theorem}
|
||||
|
||||
\begin{proof}
|
||||
\begin{itemize}
|
||||
\item \underline{Existenz:}\\
|
||||
Einsetzen von~\eqref{eq:solution} in die rechte Seite von~\eqref{eq:cp} liefert
|
||||
\begin{equation*}
|
||||
A \vec{y}(t) = A e^{(t - t_0) A} \vec{y}_0.
|
||||
\end{equation*}
|
||||
Zusammen mit~\eqref{*} folgt direkt, dass~\eqref{eq:solution} das C\textc{auchy}-Problem löst.
|
||||
|
||||
\item \underline{Eindeutigkeit:}\\
|
||||
Angenommen $\vec{u}(t)$ sei eine weitere Lösung, d.h.~es gilt $\vec{u}' = A \vec{u},\ \vec{u}(t_0) = \vec{y}_0$.
|
||||
Dann ist
|
||||
\begin{align*}
|
||||
\dfdx{}{x} \left( \text{tbc.} \right)
|
||||
\end{align*}
|
||||
\end{itemize}
|
||||
\end{proof}
|
299
sections/02_berechnung_matrixexponential.tex
Normal file
299
sections/02_berechnung_matrixexponential.tex
Normal file
@ -0,0 +1,299 @@
|
||||
Wie in~\hyperref[thm:existenz-eindeutigkeit]{Satz~\ref*{thm:existenz-eindeutigkeit}} festgestellt wurde,
|
||||
kann die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit der Matrixexponentialfunktion berechnet werden.
|
||||
In diesem Abschnitt soll nun herausgearbeitet werden, wie sich die Matrixexponentialfunktion selbst berechnen lässt.
|
||||
|
||||
\subsection{Diagonale Matrizen}\label{subsec:diagonale-matrizen}
|
||||
Zunächst werden diagonale Matrizen
|
||||
\begin{equation*}
|
||||
A = \diag\{a_1,\dots,a_n\}
|
||||
= \begin{pmatrix}
|
||||
a_1 & & \\
|
||||
& \ddots & \\
|
||||
& & a_3
|
||||
\end{pmatrix}
|
||||
\end{equation*}
|
||||
betrachtet.
|
||||
|
||||
\begin{theorem}\label{thm:matrixexponential-diagonal}
|
||||
Sei eine Diagonalmatrix $A = \diag\{a_1,\dots,a_n\}$.
|
||||
Dann gilt für die Matrixexponentialfunktion
|
||||
\begin{equation*}
|
||||
\e^{t A} = \diag\{\e^{t a_1},\dots,\e^{t a_n}\}.
|
||||
\end{equation*}
|
||||
\end{theorem}
|
||||
|
||||
\begin{proof}
|
||||
Es gilt
|
||||
\begin{equation*}
|
||||
A^k = \begin{pmatrix}
|
||||
a^k_1 & & \\
|
||||
& \ddots & \\
|
||||
& & a^k_n
|
||||
\end{pmatrix}.
|
||||
\end{equation*}
|
||||
Womit für die Matrixexponentialfunktion folgt, dass
|
||||
\begin{alignat*}{2}
|
||||
\e^{t A}
|
||||
&= \sum^\infty_{k=0} \frac{(tA)^k}{k!}
|
||||
&&= \sum^\infty_{k=0} \frac{t^k A^k}{k!}\\
|
||||
&= \sum^\infty_{k=0} \frac{t^k}{k!}
|
||||
\begin{pmatrix}
|
||||
a^k_1 & & \\
|
||||
& \ddots & \\
|
||||
& & a^k_n
|
||||
\end{pmatrix}
|
||||
&&= \sum^\infty_{k=0}
|
||||
\begin{pmatrix}
|
||||
\frac{t^k a^k_1}{k!} & & \\
|
||||
& \ddots & \\
|
||||
& & \frac{t^k a^k_n}{k!}
|
||||
\end{pmatrix}\\
|
||||
&= \begin{pmatrix}
|
||||
\sum\limits^\infty_{k=0} \frac{(t a_1)^k}{k!} & & \\
|
||||
& \ddots & \\
|
||||
& & \sum\limits^\infty_{k=0} \frac{(t a_n)^k}{k!}
|
||||
\end{pmatrix}
|
||||
&&= \begin{pmatrix}
|
||||
\e^{t a_1} & & \\
|
||||
& \ddots & \\
|
||||
& & \e^{t a_n}
|
||||
\end{pmatrix}
|
||||
\end{alignat*}
|
||||
\end{proof}
|
||||
|
||||
|
||||
\subsection{Diagonalisierbare Matrizen}\label{subsec:diagonalisierbare-matrizen}
|
||||
Das Berechnen einer Matrixexponentialfunktion mit einer diagonalisierbaren Matrix $A$ im Exponenten
|
||||
kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Matrizen} zurückgeführt werden.
|
||||
|
||||
\begin{definition}[Wiederholung]
|
||||
Eine Matrix $A$ heißt \emph{diagonalisierbar}, falls eine Diagonalmatrix $D$ und eine reguläre Matrix $A$ so existieren, dass
|
||||
\begin{equation*}
|
||||
A = S D S^{-1}
|
||||
\end{equation*}
|
||||
gilt.
|
||||
\end{definition}
|
||||
|
||||
\begin{lemma}\label{thm:matrixexponential-diagonalisierbar}
|
||||
Sei $A$ ähnlich zu $B$ mit $A = S B S^{-1}$.
|
||||
Dann gilt für die Matrixexponentialfunktion
|
||||
\begin{equation*}
|
||||
\e^{t A} = S \e^{t B} S^{-1}.
|
||||
\end{equation*}
|
||||
\end{lemma}
|
||||
|
||||
\begin{proof}
|
||||
Zuerst wird gezeigt, dass $A^k = S B^k S^{-1}$ für $k \in \NN$:
|
||||
\begin{alignat*}{2}
|
||||
A^k &= (S B S^{-1})^k &&= \underbrace{(S B S^{-1}) (S B S^{-1}) (S B S^{-1}) \dots (S B S^{-1})}_{k \text{-mal}}\\
|
||||
&= SB\underbrace{(S^{-1} S)}_{E} B \underbrace{(S^{-1} S)}_{E} \dots \underbrace{(S^{-1} S)}_{E} B S^{-1}
|
||||
&&= V \underbrace{L \cdots L}_{k \text{-mal}} S^{-1}\\
|
||||
&= S B^k S^{-1}
|
||||
\end{alignat*}
|
||||
Damit folgt dann für die Matrixexponentialfunktion
|
||||
\begin{alignat*}{2}
|
||||
\e^{t A} &= \e^{t \cdot S B S^{-1}} &&= \sum^\infty_{k=0} \frac{(t \cdot S B S^{-1})^k}{k!}\\
|
||||
&= \sum^\infty_{k=0} \frac{t^k (S B S^{-1})^k}{k!} &&= \sum^\infty_{k=0} \frac{t^k \cdot S B^k S^{-1}}{k!}\\
|
||||
&= V \left( \sum^\infty_{k=0} \frac{t^k B^k}{k!} \right) S^{-1} &&= V \left( \sum^\infty_{k=0} \frac{(t B)^k}{k!} \right) S^{-1}\\
|
||||
&= V e^{t B} S^{-1}
|
||||
\end{alignat*}
|
||||
\end{proof}
|
||||
|
||||
\begin{corollary}
|
||||
Sei $A$ diagonalisierbar mit $A = S D S^{-1}$.
|
||||
Dann gilt für die Matrixexponentialfunktion
|
||||
\begin{equation*}
|
||||
\e^{t A} = S \e^{t D} S^{-1}.
|
||||
\end{equation*}
|
||||
\end{corollary}
|
||||
|
||||
\begin{proof}
|
||||
$A$ ist nach Definition genau dann diagonalisierbar, wenn $A$ zu einer Diagonalmatrix $D$ ähnlich ist.
|
||||
Also~\hyperref[thm:matrixexponential-diagonalisierbar]{Lemma~\ref*{thm:matrixexponential-diagonalisierbar}}.
|
||||
\end{proof}
|
||||
|
||||
\subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:nichtdiagonalisierbare-matrizen}
|
||||
Jede Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = V^{-1} L V$ bringen.
|
||||
Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form
|
||||
\begin{gather*}
|
||||
J = \begin{pmatrix}
|
||||
J_1 & & \\
|
||||
& \ddots & \\
|
||||
& & J_n
|
||||
\end{pmatrix}\\
|
||||
\intertext{mit J\textc{ordan}-Block}
|
||||
J_i = \begin{pmatrix}
|
||||
\lambda_i & 1 & & \\
|
||||
& \lambda_i & \ddots & \\
|
||||
& & \ddots & 1 \\
|
||||
& & & \lambda_i
|
||||
\end{pmatrix}
|
||||
\qquad (i = 1,\dots,n).
|
||||
\end{gather*}
|
||||
Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten,
|
||||
dass die gewonnenen Erkenntnisse aus~\autoref{subsec:diagonalisierbare-matrizen} zur Berechnung der
|
||||
Matrixexponentialfunktion $\e^{J} = \e^{V J_i V^{-1}}$ anwendbar sein könnten.
|
||||
|
||||
\begin{lemma}\label{thm:blockdiag-exp}
|
||||
Sei $A \in \RR^{n \times n}$ eine Blockdiagonalmatrix
|
||||
\begin{equation*}
|
||||
A = \diag\left\{A_1,\dots,A_m\right\}
|
||||
= \begin{pmatrix}
|
||||
A_1 & & \\
|
||||
& \ddots & \\
|
||||
& & A_m
|
||||
\end{pmatrix},
|
||||
\end{equation*}
|
||||
mit quadratischen Matrizen $A_1, \dots, A_m$.
|
||||
Dann gilt
|
||||
\begin{equation*}
|
||||
\e^{t A} = \diag\left\{ \e^{t A_1}, \dots,\e^{t A_m} \right\}.
|
||||
\end{equation*}
|
||||
\end{lemma}
|
||||
|
||||
\begin{proof}
|
||||
Beweis analog~\hyperref[thm:matrixexponential-diagonal]{Satz~\ref*{thm:matrixexponential-diagonal}}
|
||||
\end{proof}
|
||||
|
||||
Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}},
|
||||
dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,n$ reduzieren lässt.\\
|
||||
Ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen zu
|
||||
\begin{equation*}
|
||||
J_i = \begin{pmatrix}
|
||||
\lambda_i & 1 & & \\
|
||||
& \lambda_i & \ddots & \\
|
||||
& & \ddots & 1 \\
|
||||
& & & \lambda_i
|
||||
\end{pmatrix}
|
||||
= \underbrace{\begin{pmatrix}
|
||||
\lambda_i & & \\
|
||||
& \ddots & \\
|
||||
& & \lambda_i
|
||||
\end{pmatrix}}_{= L_i}
|
||||
+ \underbrace{\begin{pmatrix}
|
||||
0 & 1 & & \\
|
||||
& 0 & \ddots & \\
|
||||
& & \ddots & 1 \\
|
||||
& & & 0
|
||||
\end{pmatrix}}_{\eqqcolon N}
|
||||
= L_i + N.
|
||||
\end{equation*}
|
||||
|
||||
\begin{definition}[Wiederholung]
|
||||
Eine Matrix $N$ heißt \emph{nilpotent}, falls ein $l \in \NN$ so existiert, dass $N^l = 0$.
|
||||
\end{definition}
|
||||
|
||||
\begin{corollary}
|
||||
Die Matrix $N \in \NN^{l \times l}$ aus der Zerlegung $J_i = L_i + N$ ist eine nilpotente Matrix mit $N^l = 0$.
|
||||
\end{corollary}
|
||||
|
||||
Betrachtet man den Vorgang des Potenzierens von $N$ ausführlicher, erkennt man,
|
||||
dass die Nebendiagonale auf denen die $1$en stehen sich \enquote{nach oben-rechts hinaus schiebt}:
|
||||
\begin{equation*}
|
||||
N = \begin{pmatrix}
|
||||
0 & 1 & & \\
|
||||
& \ddots & \ddots & \\
|
||||
& & \ddots & 1\\
|
||||
& & & 0
|
||||
\end{pmatrix},
|
||||
N^2 = \begin{pmatrix}
|
||||
0 & 0 & 1 & & \\
|
||||
& \ddots & \ddots & \ddots & \\
|
||||
& & \ddots & \ddots & 1\\
|
||||
& & & \ddots & 0\\
|
||||
& & & & 0
|
||||
\end{pmatrix},
|
||||
\dots,
|
||||
N^{l-1} = \begin{pmatrix}
|
||||
0 & & 1\\
|
||||
& \ddots & \\
|
||||
& & 0
|
||||
\end{pmatrix},
|
||||
N^l = \mathfrak{0}
|
||||
\end{equation*}
|
||||
|
||||
\begin{lemma}
|
||||
Die Matrizen $L_i$ und $N$ aus der Zerlegung $J_i = L_i + N$ kommutieren bzgl.\ dem Matrixprodukt.
|
||||
\end{lemma}
|
||||
|
||||
\begin{proof}
|
||||
\begin{equation*}
|
||||
L_i N = (\lambda_i E) N = \lambda_i (EN) = \lambda_i (NE) = N (\lambda_i E) = N L_i,
|
||||
\end{equation*}
|
||||
\end{proof}
|
||||
|
||||
Damit gilt
|
||||
\begin{equation*}
|
||||
\e^{t (L_i + N)} = \e^{t L_i + t N} = \e^{t L_i} \e^{t N}.
|
||||
\end{equation*}
|
||||
|
||||
Da $L_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^{t L}$ bereits aus~\autoref{subsec:diagonale-matrizen} bekannt.
|
||||
Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^{t N}$,
|
||||
da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
|
||||
\begin{align*}
|
||||
\e^ {tN } &= \sum^\infty_{k=0} \frac{(t N)^k}{k!}
|
||||
= \sum^{l-1}_{k=0} \frac{(t N)^k}{k!}
|
||||
= E + t N + \frac{t^2}{2} N^2 + \dots + \frac{t^{l-1}}{(l-1)!} N^{l-1}\\
|
||||
&= E + t N + \frac{t^2}{2} \begin{pmatrix}
|
||||
0 & 0 & 1 & & \\
|
||||
& \ddots & \ddots & \ddots & \\
|
||||
& & \ddots & \ddots & 1\\
|
||||
& & & \ddots & 0\\
|
||||
& & & & 0
|
||||
\end{pmatrix}
|
||||
+ \dots + \frac{t^{l-1}}{(l-1)!} \begin{pmatrix}
|
||||
0 & & 1\\
|
||||
& \ddots & \\
|
||||
& & 0
|
||||
\end{pmatrix}\\
|
||||
&= \begin{pmatrix}
|
||||
1 & t & \frac{t^2}{2} & \frac{t^3}{3!} & \dots & \frac{t^{l-1}}{(l-1)!}\\
|
||||
& 1 & t & \frac{t^2}{2} & \dots & \frac{t^{l-2}}{(l-2)!}\\
|
||||
& & 1 & t & \ddots & \vdots\\
|
||||
& & & 1 & \ddots & \frac{t^2}{2}\\
|
||||
& & & & \ddots & t\\
|
||||
& & & & & 1
|
||||
\end{pmatrix}.
|
||||
\end{align*}
|
||||
|
||||
\begin{remark*}
|
||||
Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$
|
||||
mit J\textc{ordan}-Normalform $J$, gilt also insgesamt
|
||||
\begin{align*}
|
||||
\vec{y}(t) &= \e^{(t - t_0) A} \vec{y}_0 = \e^{(t - t_0) V L V^{-1}} \vec{y}_0 = V \e^{(t - t_0) J} V^{-1} \vec{y}_0\\
|
||||
&= V \begin{pmatrix}
|
||||
\e^{(t - t_0) J_1} & & \\
|
||||
& \ddots & \\
|
||||
& & \e^{(t - t_0) J_n}
|
||||
\end{pmatrix} V^{-1} \vec{y}_0\\
|
||||
&= V \begin{pmatrix}
|
||||
\e^{(t - t_0) L_1} \e^{(t - t_0) N} & & \\
|
||||
& \ddots & \\
|
||||
& & \e^{(t - t_0) L_n} \e^{(t - t_0) N}
|
||||
\end{pmatrix} V^{-1} \vec{y}_0.
|
||||
\end{align*}
|
||||
\end{remark*}
|
||||
|
||||
\begin{example*}
|
||||
Gegeben sei das~\ref{eq:cp}
|
||||
\begin{equation*}
|
||||
\vec{y}'(t) = \underbrace{\begin{pmatrix} a & 1\\ 0 & a \end{pmatrix}}_{= A} y(t),\ a \in \RR,
|
||||
\qquad \vec{y}(t_0 = 0) = \vec{y}_0 = \begin{pmatrix}y_1\\ y_2\end{pmatrix}.
|
||||
\end{equation*}
|
||||
$A$ lässt sich zerlegen in eine Diagonalmatrix $D$ und nilpotente Matrix $N$:
|
||||
\begin{equation*}
|
||||
A = \underbrace{\begin{pmatrix} a & 0\\ 0 & a \end{pmatrix}}_{\eqqcolon D}
|
||||
+ \underbrace{\begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix}}_{\eqqcolon N}
|
||||
\end{equation*}
|
||||
Nach~\hyperref[thm:existenz-eindeutigkeit]{Satz~\ref*{thm:existenz-eindeutigkeit}} und~\autoref{sec:berechnung-matrixexponential} ist die Lösung gegeben durch
|
||||
\begin{alignat*}{2}
|
||||
\vec{y}(t) &= \e^{t A} \vec{y}_0
|
||||
&&= \e^{t (D + N)} \vec{y}_0\\
|
||||
&= \e^{t D + t N} \vec{y}_0
|
||||
&&= \e^{t D} \e^{t N} \vec{y}_0\\
|
||||
&= \begin{pmatrix} \e^{t a} & 0\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix} 1 & t\\ 0 & 1 \end{pmatrix} \vec{y}_0
|
||||
&&= \begin{pmatrix} \e^{t a} & t \e^{t a}\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix}y_1\\ y_2\end{pmatrix}\\
|
||||
&= \begin{pmatrix} y_1 \e^{t a} + y_2 t \e^{t a}\\ y_2 \e^{t a} \end{pmatrix}
|
||||
&&= \begin{pmatrix} \e^{t a} (y_1 + y_2 t)\\ y_2 \e^{t a} \end{pmatrix}
|
||||
\end{alignat*}
|
||||
\end{example*}
|
@ -1,34 +0,0 @@
|
||||
Ein~\ref{eq:dgls} zusammen mit einem einem Anfangswertvektor
|
||||
\begin{equation*}
|
||||
\vec{y}(x_0) \coloneqq \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix} \in \RR^n
|
||||
\end{equation*}
|
||||
an der Stelle $x_0 \in \RR$ nennt man ein \emph{C\textc{auchy}-Problem} oder \emph{Anfangswertproblem}.
|
||||
|
||||
\begin{theorem}[Existenz- und Eindeutigkeit]
|
||||
Vorgelegt sei ein C\textc{auchy}-Problem
|
||||
\begin{equation}\tag{CP}\label{eq:cp}
|
||||
\vec{y}'(x) = A \vec{y}(x), \qquad \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix}.
|
||||
\end{equation}
|
||||
Dann besitzt~\eqref{eq:cp} eine eindeutig bestimmte Lösung $\vec{y}$ auf $\RR$ mit der Form
|
||||
\begin{equation}\tag{$\ast$}\label{eq:solution}
|
||||
\vec{y}(x) = e^{(x - x_0) A} \vec{y}_0.
|
||||
\end{equation}
|
||||
\end{theorem}
|
||||
|
||||
\begin{proof}
|
||||
\begin{itemize}
|
||||
\item \underline{Existenz:}\\
|
||||
Einsetzen in die rechte Seite von~\eqref{eq:solution} in~\eqref{eq:cp} liefert
|
||||
\begin{equation*}
|
||||
A \vec{y}(x) = A e^{(x - x_0) A} \vec{y}_0.
|
||||
\end{equation*}
|
||||
Zusammen mit~\eqref{*} folgt direkt, dass~\eqref{eq:solution} das C\textc{auchy}-Problem löst.
|
||||
|
||||
\item \underline{Eindeutigkeit:}\\
|
||||
Angenommen $\vec{u}(x)$ sei eine weitere Lösung, d.h.~es gilt $\vec{u}' = A \vec{u},\ \vec{u}(x_0) = \vec{y}_0$.
|
||||
Dann ist
|
||||
\begin{align*}
|
||||
\dfdx{}{x} \left( \text{tbc.} \right)
|
||||
\end{align*}
|
||||
\end{itemize}
|
||||
\end{proof}
|
@ -1,287 +0,0 @@
|
||||
Die gewonnenen Erkenntnisse können nun dazu genutzt werden,
|
||||
um Lösungen für homogene lineare Differentialgleichungssysteme mit konstanten Koeffizienten zu finden.
|
||||
|
||||
\subsection{Diagonale Matrizen}\label{subsec:03-01}
|
||||
Zunächst werden diagonale Matrizen $A = \diag\{a_1,\dots,a_n\}$ betrachtet.
|
||||
Vorgegeben sei also eine Diagonalmatrix
|
||||
\begin{equation*}
|
||||
A = \diag\{a_1,\dots,a_n\}
|
||||
= \begin{pmatrix}
|
||||
a_1 & & \\
|
||||
& \ddots & \\
|
||||
& & a_3
|
||||
\end{pmatrix}.
|
||||
\end{equation*}
|
||||
Für ein~\ref{eq:dgls} liegen dann die $n$ unabhängigen Differentialgleichungen
|
||||
\begin{equation*}
|
||||
y'_i(x) = a_i y_i(x) \qquad (i = 1,\dots,n)
|
||||
\end{equation*}
|
||||
vor, deren Lösungen zu einem gegebenen Anfangswert $\vec{y}_0 = (y_{0_1},\dots,y_{0_n})^T$ durch
|
||||
\begin{equation*}
|
||||
y_i(x) = \e^{(x - x_0) a_i} y_{0_i} \qquad (i = 1,\dots,n)
|
||||
\end{equation*}
|
||||
gegeben sind.
|
||||
Mittels Matrixexponentialfunktion lässt sich die Lösung also durch
|
||||
\begin{equation*}
|
||||
\vec{y}(x) = \e^{(x - x_0) A}
|
||||
= \begin{pmatrix}
|
||||
\e^{(x - x_0) a_1} & & \\
|
||||
& \ddots & \\
|
||||
& & \e^{(x - x_0) a_n}
|
||||
\end{pmatrix}
|
||||
\end{equation*}
|
||||
angeben.
|
||||
|
||||
\subsection{Diagonalisierbare Matrizen}\label{subsec:03-02}
|
||||
Das Lösen eines~\ref{eq:dgls}s mit einer diagonalisierbaren Koeffizientenmatrix $A$ kann auf den obigen Fall der~\nameref{subsec:03-01}
|
||||
zurückgeführt werden.
|
||||
Dazu wird $A$ durch eine Diagonalmatrix $L = \diag\{\lambda_1,\dots,\lambda_n\}$ aus den Eigenwerten $\lambda_i$ ($i = 1,\dots,n$)
|
||||
und durch die Matrix $V$ der zugehörigen Eigenvektoren mit
|
||||
\begin{equation*}
|
||||
A = V L V^{-1}
|
||||
\end{equation*}
|
||||
dargestellt.
|
||||
|
||||
\begin{theorem}\label{thm:diagbar-cp-solution}
|
||||
Sei $A = V L V^{-1}$ eine diagonalisierbare Matrix mit $L = \diag\{\lambda_1,\dots,\lambda_n\}$,
|
||||
wobei $\lambda_i$ ($i = 1,\dots,n$) die Eigenwerte und $V$ die Matrix mit den zugehörigen Eigenvektoren von $A$ sind.
|
||||
Dann ist die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems}
|
||||
\begin{gather*}
|
||||
\vec{y}'(x) = A \vec{y}(x) = V L V^{-1} \vec{y}(x), \qquad \vec{y}_0 = (y_{1_0},\dots,y_{n_0})^T\\
|
||||
\intertext{durch}
|
||||
\begin{aligned}
|
||||
\vec{y}(x)
|
||||
&= V \e^{(x - x_0) L} V^{-1} \vec{y}_0\\
|
||||
\big( &= \left. V \diag\left\{\e^{(x - x_0) \lambda_1}, \dots,\e^{(x - x_0) \lambda_n}\right\} V^{-1} \right)
|
||||
\end{aligned}
|
||||
\end{gather*}
|
||||
gegeben.
|
||||
\end{theorem}
|
||||
|
||||
\begin{proof}
|
||||
Das~\ref{eq:dgls}
|
||||
\begin{gather*}
|
||||
\vec{y}'(x) = V L V^{-1} \vec{y}(x)\\
|
||||
\intertext{lässt sich zu}
|
||||
V^{-1} \vec{y}'(x) = L V^{-1} \vec{y}(x).
|
||||
\end{gather*}
|
||||
umformen.
|
||||
Durch Substitution von $\vec{u} = V^{-1} \vec{y}$ ergibt sich das~\ref{eq:cp}
|
||||
\begin{equation}\tag{$\triangle$}\label{eq:03-02-01}
|
||||
\vec{u}'(x) = L \vec{u}(x), \qquad \vec{u}_0 \coloneqq \vec{u}(x_0) = V^{-1} \vec{y}(x_0) = V^{-1} \vec{y}_0.
|
||||
\end{equation}
|
||||
Da $L$ eine Diagonalmatrix ist, folgt mit~\autoref{subsec:03-01}, dass
|
||||
\begin{equation*}
|
||||
\vec{u}(x) = \e^{(x - x_0) L} \vec{u}_0
|
||||
\end{equation*}
|
||||
die Lösung von~\eqref{eq:03-02-01} ist.
|
||||
Rücksubstitution ergibt schließlich die Lösung
|
||||
\begin{alignat*}{2}
|
||||
&& \vec{u}(x) &= \e^{(x - x_0) L} \vec{u}_0\\
|
||||
\Leftrightarrow\quad && V^{-1} \vec{y} &= \e^{(x - x_0) L} V^{-1} \vec{y}_0\\
|
||||
\Leftrightarrow\quad && \vec{y} &= V \e^{(x - x_0) L} V^{-1} \vec{y}_0.
|
||||
\end{alignat*}
|
||||
\end{proof}
|
||||
|
||||
\begin{corollary}
|
||||
Sei $A$ diagonalisierbar mit $A = V L V^{-1}$.
|
||||
Dann gilt für die Matrixexponentialfunktion
|
||||
\begin{equation*}
|
||||
\e^{A} = V \e^{L} V^{-1}.
|
||||
\end{equation*}
|
||||
\end{corollary}
|
||||
|
||||
\begin{proof}
|
||||
Zuerst wird gezeigt, dass $A^k = V L^k V^{-1}$ für $k \in \NN$:
|
||||
\begin{alignat*}{2}
|
||||
A^k &= (V L V^{-1})^k &&= \underbrace{(V L V^{-1}) (V L V^{-1}) (V L V^{-1}) \dots (V L V^{-1})}_{k \text{-mal}}\\
|
||||
&= V L \underbrace{(V^{-1} V)}_{E} L \underbrace{(V^{-1} V)}_{E} \dots \underbrace{(V^{-1} V)}_{E} L V^{-1} &&= V \underbrace{L \cdots L}_{k \text{-mal}} V^{-1}\\
|
||||
&= V L^k V^{-1}
|
||||
\end{alignat*}
|
||||
Damit folgt dann für die Matrixexponentialfunktion
|
||||
\begin{alignat*}{2}
|
||||
\e^{A} &= \e^{V L V^{-1}} &&= \sum^\infty_{k=0} \frac{(V L V^{-1})^k}{k!}\\
|
||||
&= \sum^\infty_{k=0} \frac{V L^k V^{-1}}{k!} &&= V \left( \sum^\infty_{k=0} \frac{L^k}{k!} \right) V^{-1}\\
|
||||
&= V e^L V^{-1}
|
||||
\end{alignat*}
|
||||
\end{proof}
|
||||
|
||||
\emph{Bemerkung:} \hyperref[thm:diagbar-cp-solution]{Folgerung~\ref*{thm:diagbar-cp-solution}} lässt sich leicht ersichtlich auf einen allgemeinen Fall von ähnlichen Matrizen $A = S B S^{-1}$ übertragen, d.h.
|
||||
\begin{equation*}
|
||||
\e^A = \e^{S B S^{-1}} = S \e^B S^{-1}.
|
||||
\end{equation*}
|
||||
|
||||
\subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:03-03}
|
||||
Jede Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = V^{-1} L V$ bringen.
|
||||
Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form
|
||||
\begin{gather*}
|
||||
J = \begin{pmatrix}
|
||||
J_1 & & \\
|
||||
& \ddots & \\
|
||||
& & J_n
|
||||
\end{pmatrix}\\
|
||||
\intertext{mit J\textc{ordan}-Block}
|
||||
J_i = \begin{pmatrix}
|
||||
\lambda_i & 1 & & \\
|
||||
& \lambda_i & \ddots & \\
|
||||
& & \ddots & 1 \\
|
||||
& & & \lambda_i
|
||||
\end{pmatrix}
|
||||
\qquad (i = 1,\dots,n).
|
||||
\end{gather*}
|
||||
Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten,
|
||||
dass die gewonnenen Erkenntnisse aus~\autoref{subsec:03-02} anwendbar sein könnten.
|
||||
|
||||
\begin{lemma}\label{thm:blockdiag-exp}
|
||||
Sei $A \in \RR^{nd \times nd}$ eine Blockdiagonalmatrix
|
||||
\begin{equation*}
|
||||
A = \begin{pmatrix}
|
||||
A_1 & & \\
|
||||
& \ddots & \\
|
||||
& & A_n
|
||||
\end{pmatrix},
|
||||
\end{equation*}
|
||||
mit quadratischen Matrizen $A_1, \dots, A_n \in \RR^{d \times d}$.
|
||||
Dann gilt
|
||||
\begin{equation*}
|
||||
\e^A = \begin{pmatrix}
|
||||
\e^{A_1} & & \\
|
||||
& \ddots & \\
|
||||
& & \e^{A_n}
|
||||
\end{pmatrix}.
|
||||
\end{equation*}
|
||||
\end{lemma}
|
||||
|
||||
\begin{proof}
|
||||
Es gilt
|
||||
\begin{equation*}
|
||||
A^k = \begin{pmatrix}
|
||||
A^k_1 & & \\
|
||||
& \ddots & \\
|
||||
& & A^k_n
|
||||
\end{pmatrix}.
|
||||
\end{equation*}
|
||||
Damit folgt dann
|
||||
\begin{alignat*}{2}
|
||||
\e^A
|
||||
&= \sum^\infty_{k=0} \frac{A^k}{k!}
|
||||
&&= \sum^\infty_{k=0} \frac{1}{k!}
|
||||
\begin{pmatrix}
|
||||
A^k_1 & & \\
|
||||
& \ddots & \\
|
||||
& & A^k_n
|
||||
\end{pmatrix}\\
|
||||
&= \sum^\infty_{k=0}
|
||||
\begin{pmatrix}
|
||||
\frac{A^k_1}{k!} & & \\
|
||||
& \ddots & \\
|
||||
& & \frac{A^k_n}{k!}
|
||||
\end{pmatrix}
|
||||
&&= \begin{pmatrix}
|
||||
\sum^\infty_{k=0} \frac{A^k_1}{k!} & & \\
|
||||
& \ddots & \\
|
||||
& & \sum^\infty_{k=0} \frac{A^k_n}{k!}
|
||||
\end{pmatrix}\\
|
||||
&= \begin{pmatrix}
|
||||
\e^{A_1} & & \\
|
||||
& \ddots & \\
|
||||
& & \e^{A_n}
|
||||
\end{pmatrix}
|
||||
\end{alignat*}
|
||||
\end{proof}
|
||||
|
||||
Es ergeben sich also Lösungen eines gegebenen~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$ durch
|
||||
\begin{equation*}
|
||||
\vec{y}(x) = V \e^{(x - x_0) J} V^{-1} \vec{y}_0.
|
||||
\end{equation*}
|
||||
Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}},
|
||||
dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,n$ reduzieren lässt.\\
|
||||
Ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen zu
|
||||
\begin{equation*}
|
||||
J_i = \begin{pmatrix}
|
||||
\lambda_i & 1 & & \\
|
||||
& \lambda_i & \ddots & \\
|
||||
& & \ddots & 1 \\
|
||||
& & & \lambda_i
|
||||
\end{pmatrix}
|
||||
= \underbrace{\begin{pmatrix}
|
||||
\lambda & & \\
|
||||
& \ddots & \\
|
||||
& & \lambda
|
||||
\end{pmatrix}}_{= L_i}
|
||||
+ \underbrace{\begin{pmatrix}
|
||||
0 & 1 & & \\
|
||||
& 0 & \ddots & \\
|
||||
& & \ddots & 1 \\
|
||||
& & & 0
|
||||
\end{pmatrix}}_{\eqqcolon N}
|
||||
= L_i + N.
|
||||
\end{equation*}
|
||||
Dabei ist $N$ eine \emph{nilpotente} Matrix, d.h.\ es existiert ein $l \in \NN$ so, dass $N^l = 0$.
|
||||
Zudem kommutieren die Matrizen $L_i$ und $N$, da
|
||||
\begin{gather*}
|
||||
L_i N = (\lambda_i E) N = \lambda (EN) = \lambda (NE) = N (\lambda_i E) = N L_i,\\
|
||||
\intertext{weshalb}
|
||||
\e^{L_i + N} = \e^{L_i} \e^N
|
||||
\end{gather*}
|
||||
gilt.
|
||||
Da $L_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^L$ bereits aus~\autoref{subsec:03-01} bekannt.
|
||||
Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^N$,
|
||||
da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
|
||||
\begin{align*}
|
||||
\e^N &= \sum^\infty_{k=0} \frac{N^k}{k!}
|
||||
= \sum^{l-1}_{k=0} \frac{N^k}{k!}
|
||||
= E + N + \frac{1}{2} N^2 + \dots + \frac{1}{(l-1)!} N^{l-1}\\
|
||||
&= E + N + \frac{1}{2} \begin{pmatrix}
|
||||
0 & 0 & 1 & & \\
|
||||
& \ddots & \ddots & \ddots & \\
|
||||
& & \ddots & \ddots & 1\\
|
||||
& & & \ddots & 0\\
|
||||
& & & & 0
|
||||
\end{pmatrix}
|
||||
+ \dots + \frac{1}{(l-1)!} \begin{pmatrix}
|
||||
0 & & 1\\
|
||||
& \ddots & \\
|
||||
& & 0
|
||||
\end{pmatrix}\\
|
||||
&= \begin{pmatrix}
|
||||
1 & 1 & \frac{1}{2} & \frac{1}{3!} & \dots & \frac{1}{(l-1)!}\\
|
||||
& 1 & 1 & \frac{1}{2} & \dots & \frac{1}{(l-2)!}\\
|
||||
& & 1 & 1 & \dots & \vdots\\
|
||||
& & & 1 & \ddots & \frac{1}{2}\\
|
||||
& & & & \ddots & 1\\
|
||||
& & & & & 1
|
||||
\end{pmatrix}.
|
||||
\end{align*}
|
||||
Werden nun alle Erkenntnisse kombiniert, gilt für $\e^{J_i t}$ schließlich
|
||||
\begin{align*}
|
||||
\e^{J_i t} &= \e^{(L_i + N) t} = \e^{L_i t + Nt} = \e^{L_i t} \e^{Nt}\\
|
||||
&= \begin{pmatrix}
|
||||
\e^{\lambda_i t} & & \\
|
||||
& \ddots & \\
|
||||
& & \e^{\lambda_i t}
|
||||
\end{pmatrix}
|
||||
\begin{pmatrix}
|
||||
1 & t & \frac{t^2}{2} & \frac{t^3}{3!} & \dots & \frac{t^{l-1}}{(l-1)!}\\
|
||||
& 1 & t & \frac{t^2}{2} & \dots & \frac{t^{l-2}}{(l-2)!}\\
|
||||
& & 1 & x & \dots & \vdots\\
|
||||
& & & 1 & \ddots & \frac{t^2}{2}\\
|
||||
& & & & \ddots & t\\
|
||||
& & & & & 1
|
||||
\end{pmatrix}.
|
||||
\end{align*}
|
||||
Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$,
|
||||
gilt insgesamt also
|
||||
\begin{align*}
|
||||
\vec{y}(x) &= V \e^{(x - x_0) J} V^{-1} \vec{y}_0\\
|
||||
&= V \begin{pmatrix}
|
||||
\e^{(x - x_0) J_1} & & \\
|
||||
& \ddots & \\
|
||||
& & \e^{(x - x_0) J_n}
|
||||
\end{pmatrix} V^{-1} \vec{y}_0\\
|
||||
&= V \begin{pmatrix}
|
||||
\e^{(x - x_0) L_1} \e^{(x - x_0) N} & & \\
|
||||
& \ddots & \\
|
||||
& & \e^{(x - x_0) L_n} \e^{(x - x_0) N}
|
||||
\end{pmatrix} V^{-1} \vec{y}_0.
|
||||
\end{align*}
|
Loading…
Reference in New Issue
Block a user