diff --git a/proseminar.sty b/proseminar.sty index a73d724..ee2c508 100644 --- a/proseminar.sty +++ b/proseminar.sty @@ -57,6 +57,8 @@ \DeclareTextFontCommand{\emph}{\boldmath\bfseries} +\allowdisplaybreaks + %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % new commands and math operatos % %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% @@ -107,7 +109,8 @@ % style for examples: "Beispiel:" \newtheoremstyle{nobreak*}{}{}{\normalfont}{}{\bfseries}{}{ }{} \theoremstyle{nobreak*} +\newtheorem*{remark*}{Bemerkung:} \newtheorem*{example*}{Beispiel:} % proofs with bold name and qed at end -\renewenvironment{proof}[1][\proofname]{\textbf{#1.} }{\nobreak\hfill\ensuremath{\blacksquare}} +\renewenvironment{proof}[1][\proofname]{\textbf{#1.} }{\nobreak\hfill\ensuremath{\blacksquare}\par} \ No newline at end of file diff --git a/proseminar_skript.tex b/proseminar_skript.tex index d0a3e32..308ad56 100644 --- a/proseminar_skript.tex +++ b/proseminar_skript.tex @@ -5,7 +5,8 @@ \subject{Proseminar} \title{ - Tbd + Berechnung der Matrixexponentialfunktion und + Anwendung auf homogene lineare Differentialgleichungssysteme mit konstanten Koeffizienten } \subtitle{TU Bergakademie Freiberg} \author{Niklas Birk} @@ -24,13 +25,10 @@ \newpage - \section{Lineare Differentialgleichungssysteme mit konstanten Koeffizienten}\label{sec:01} - \input{sections/01_ldgls} + \section{Lineare Differentialgleichungssysteme mit konstanten Koeffizienten und Anwendung der Matrixexponentialfunktion}\label{sec:dgls-matrixexponential} + \input{sections/01_ldgls_matrixexponential} - \section{Existenz und Eindeutigkeit der Lösung}\label{sec:02} - \input{sections/02_existenz_eindeutigkeit} - - \section{Anwendung der Matrixexponentialfunktion auf homogene lineare DGLS}\label{sec:03} - \input{sections/03_anwendung_auf_jnf} + \section{Berechnung der Matrixexponentialfunktion}\label{sec:berechnung-matrixexponential} + \input{sections/02_berechnung_matrixexponential} \end{document} \ No newline at end of file diff --git a/sections/01_ldgls.tex b/sections/01_ldgls.tex deleted file mode 100644 index 2d57019..0000000 --- a/sections/01_ldgls.tex +++ /dev/null @@ -1,19 +0,0 @@ -\begin{definition} - Seien $y_1,\dots,y_n: I \subseteq \RR \to \RR$ differenzierbar und $a_{jk} \in \RR$ für $j,k = 1,\dots,n$. - Dann heißt - \begin{equation*} - \begin{aligned} - y'_1(x) &= a_{11} y_1(x) + \dots + a_{1n} y_n(x)\\ - y'_2(x) &= a_{21} y_1(x) + \dots + a_{2n} y_n(x)\\ - &\vdots\\ - y'_n(x) &= a_{n1} y_1(x) + \dots + a_{nn} y_n(x) - \end{aligned} - \end{equation*} - ein \emph{homogenes lineares Differentialgleichungssystem} (DGLS) (1. Ordnung).\\ - Das obige System lässt sich auch kompakt in der Form - \begin{equation}\tag{DGLS}\label{eq:dgls} - \vec{y}'(x) = A \vec{y}(x) - \end{equation} - schreiben, wobei $\vec{y}(x) = \begin{pmatrix} y_1(x)\\ \vdots\\ y_n(x) \end{pmatrix}, \vec{y}'(x) = \begin{pmatrix} y'_1(x)\\ \vdots\\ y'_n(x) \end{pmatrix}$ - und $A \in \RR^{n \times n}$ -\end{definition} \ No newline at end of file diff --git a/sections/01_ldgls_matrixexponential.tex b/sections/01_ldgls_matrixexponential.tex new file mode 100644 index 0000000..f0276fd --- /dev/null +++ b/sections/01_ldgls_matrixexponential.tex @@ -0,0 +1,56 @@ +\begin{definition} + Seien $y_1,\dots,y_n: \RR \to \RR$ differenzierbar und $a_{jk} \in \RR$ für $j,k = 1,\dots,n$. + Dann heißt + \begin{equation*} + \begin{aligned} + y'_1(t) &= a_{11} y_1(t) + \dots + a_{1n} y_n(t)\\ + y'_2(t) &= a_{21} y_1(t) + \dots + a_{2n} y_n(t)\\ + &\vdots\\ + y'_n(t) &= a_{n1} y_1(t) + \dots + a_{nn} y_n(t) + \end{aligned} + \end{equation*} + ein \emph{homogenes lineares Differentialgleichungssystem} (DGLS) (1. Ordnung).\\ + Das obige System lässt sich auch kompakt in der Form + \begin{equation}\tag{DGLS}\label{eq:dgls} + \vec{y}'(t) = A \vec{y}(t) + \end{equation} + schreiben, wobei $\vec{y}(t) = \begin{pmatrix} y_1(t)\\ \vdots\\ y_n(t) \end{pmatrix}, \vec{y}'(t) = \begin{pmatrix} y'_1(t)\\ \vdots\\ y'_n(t) \end{pmatrix}$ + und $A \in \RR^{n \times n}$ +\end{definition} + +\begin{definition} + Ein~\ref{eq:dgls} zusammen mit einer Anfangsbedingung + \begin{equation*} + \vec{y}(t_0) = \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix} \in \RR^n + \end{equation*} + an einer Stelle $t_0 \in \RR$ nennt man ein \emph{C\textc{auchy}-Problem} oder \emph{Anfangswertproblem}. +\end{definition} + +\begin{theorem}[Existenz und Eindeutigkeit]\label{thm:existenz-eindeutigkeit} + Vorgelegt sei ein C\textc{auchy}-Problem + \begin{equation}\tag{CP}\label{eq:cp} + \vec{y}'(t) = A \vec{y}(t), \qquad \vec{y}(t_0) = \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix}. + \end{equation} + Dann besitzt~\eqref{eq:cp} eine eindeutig bestimmte Lösung $\vec{y}$ auf $\RR$ mit der Form + \begin{equation}\tag{$\ast$}\label{eq:solution} + \vec{y}(t) = e^{(t - t_0) A} \vec{y}_0. + \end{equation} +\end{theorem} + +\begin{proof} + \begin{itemize} + \item \underline{Existenz:}\\ + Einsetzen von~\eqref{eq:solution} in die rechte Seite von~\eqref{eq:cp} liefert + \begin{equation*} + A \vec{y}(t) = A e^{(t - t_0) A} \vec{y}_0. + \end{equation*} + Zusammen mit~\eqref{*} folgt direkt, dass~\eqref{eq:solution} das C\textc{auchy}-Problem löst. + + \item \underline{Eindeutigkeit:}\\ + Angenommen $\vec{u}(t)$ sei eine weitere Lösung, d.h.~es gilt $\vec{u}' = A \vec{u},\ \vec{u}(t_0) = \vec{y}_0$. + Dann ist + \begin{align*} + \dfdx{}{x} \left( \text{tbc.} \right) + \end{align*} + \end{itemize} +\end{proof} \ No newline at end of file diff --git a/sections/02_berechnung_matrixexponential.tex b/sections/02_berechnung_matrixexponential.tex new file mode 100644 index 0000000..8d764aa --- /dev/null +++ b/sections/02_berechnung_matrixexponential.tex @@ -0,0 +1,299 @@ +Wie in~\hyperref[thm:existenz-eindeutigkeit]{Satz~\ref*{thm:existenz-eindeutigkeit}} festgestellt wurde, +kann die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit der Matrixexponentialfunktion berechnet werden. +In diesem Abschnitt soll nun herausgearbeitet werden, wie sich die Matrixexponentialfunktion selbst berechnen lässt. + +\subsection{Diagonale Matrizen}\label{subsec:diagonale-matrizen} +Zunächst werden diagonale Matrizen +\begin{equation*} + A = \diag\{a_1,\dots,a_n\} + = \begin{pmatrix} + a_1 & & \\ + & \ddots & \\ + & & a_3 + \end{pmatrix} +\end{equation*} +betrachtet. + +\begin{theorem}\label{thm:matrixexponential-diagonal} + Sei eine Diagonalmatrix $A = \diag\{a_1,\dots,a_n\}$. + Dann gilt für die Matrixexponentialfunktion + \begin{equation*} + \e^{t A} = \diag\{\e^{t a_1},\dots,\e^{t a_n}\}. + \end{equation*} +\end{theorem} + +\begin{proof} + Es gilt + \begin{equation*} + A^k = \begin{pmatrix} + a^k_1 & & \\ + & \ddots & \\ + & & a^k_n + \end{pmatrix}. + \end{equation*} + Womit für die Matrixexponentialfunktion folgt, dass + \begin{alignat*}{2} + \e^{t A} + &= \sum^\infty_{k=0} \frac{(tA)^k}{k!} + &&= \sum^\infty_{k=0} \frac{t^k A^k}{k!}\\ + &= \sum^\infty_{k=0} \frac{t^k}{k!} + \begin{pmatrix} + a^k_1 & & \\ + & \ddots & \\ + & & a^k_n + \end{pmatrix} + &&= \sum^\infty_{k=0} + \begin{pmatrix} + \frac{t^k a^k_1}{k!} & & \\ + & \ddots & \\ + & & \frac{t^k a^k_n}{k!} + \end{pmatrix}\\ + &= \begin{pmatrix} + \sum\limits^\infty_{k=0} \frac{(t a_1)^k}{k!} & & \\ + & \ddots & \\ + & & \sum\limits^\infty_{k=0} \frac{(t a_n)^k}{k!} + \end{pmatrix} + &&= \begin{pmatrix} + \e^{t a_1} & & \\ + & \ddots & \\ + & & \e^{t a_n} + \end{pmatrix} + \end{alignat*} +\end{proof} + + +\subsection{Diagonalisierbare Matrizen}\label{subsec:diagonalisierbare-matrizen} +Das Berechnen einer Matrixexponentialfunktion mit einer diagonalisierbaren Matrix $A$ im Exponenten +kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Matrizen} zurückgeführt werden. + +\begin{definition}[Wiederholung] + Eine Matrix $A$ heißt \emph{diagonalisierbar}, falls eine Diagonalmatrix $D$ und eine reguläre Matrix $A$ so existieren, dass + \begin{equation*} + A = S D S^{-1} + \end{equation*} + gilt. +\end{definition} + +\begin{lemma}\label{thm:matrixexponential-diagonalisierbar} + Sei $A$ ähnlich zu $B$ mit $A = S B S^{-1}$. + Dann gilt für die Matrixexponentialfunktion + \begin{equation*} + \e^{t A} = S \e^{t B} S^{-1}. + \end{equation*} +\end{lemma} + +\begin{proof} + Zuerst wird gezeigt, dass $A^k = S B^k S^{-1}$ für $k \in \NN$: + \begin{alignat*}{2} + A^k &= (S B S^{-1})^k &&= \underbrace{(S B S^{-1}) (S B S^{-1}) (S B S^{-1}) \dots (S B S^{-1})}_{k \text{-mal}}\\ + &= SB\underbrace{(S^{-1} S)}_{E} B \underbrace{(S^{-1} S)}_{E} \dots \underbrace{(S^{-1} S)}_{E} B S^{-1} + &&= V \underbrace{L \cdots L}_{k \text{-mal}} S^{-1}\\ + &= S B^k S^{-1} + \end{alignat*} + Damit folgt dann für die Matrixexponentialfunktion + \begin{alignat*}{2} + \e^{t A} &= \e^{t \cdot S B S^{-1}} &&= \sum^\infty_{k=0} \frac{(t \cdot S B S^{-1})^k}{k!}\\ + &= \sum^\infty_{k=0} \frac{t^k (S B S^{-1})^k}{k!} &&= \sum^\infty_{k=0} \frac{t^k \cdot S B^k S^{-1}}{k!}\\ + &= V \left( \sum^\infty_{k=0} \frac{t^k B^k}{k!} \right) S^{-1} &&= V \left( \sum^\infty_{k=0} \frac{(t B)^k}{k!} \right) S^{-1}\\ + &= V e^{t B} S^{-1} + \end{alignat*} +\end{proof} + +\begin{corollary} + Sei $A$ diagonalisierbar mit $A = S D S^{-1}$. + Dann gilt für die Matrixexponentialfunktion + \begin{equation*} + \e^{t A} = S \e^{t D} S^{-1}. + \end{equation*} +\end{corollary} + +\begin{proof} + $A$ ist nach Definition genau dann diagonalisierbar, wenn $A$ zu einer Diagonalmatrix $D$ ähnlich ist. + Also~\hyperref[thm:matrixexponential-diagonalisierbar]{Lemma~\ref*{thm:matrixexponential-diagonalisierbar}}. +\end{proof} + +\subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:nichtdiagonalisierbare-matrizen} +Jede Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = V^{-1} L V$ bringen. +Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form +\begin{gather*} + J = \begin{pmatrix} + J_1 & & \\ + & \ddots & \\ + & & J_n + \end{pmatrix}\\ + \intertext{mit J\textc{ordan}-Block} + J_i = \begin{pmatrix} + \lambda_i & 1 & & \\ + & \lambda_i & \ddots & \\ + & & \ddots & 1 \\ + & & & \lambda_i + \end{pmatrix} + \qquad (i = 1,\dots,n). +\end{gather*} +Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten, +dass die gewonnenen Erkenntnisse aus~\autoref{subsec:diagonalisierbare-matrizen} zur Berechnung der +Matrixexponentialfunktion $\e^{J} = \e^{V J_i V^{-1}}$ anwendbar sein könnten. + +\begin{lemma}\label{thm:blockdiag-exp} + Sei $A \in \RR^{n \times n}$ eine Blockdiagonalmatrix + \begin{equation*} + A = \diag\left\{A_1,\dots,A_m\right\} + = \begin{pmatrix} + A_1 & & \\ + & \ddots & \\ + & & A_m + \end{pmatrix}, + \end{equation*} + mit quadratischen Matrizen $A_1, \dots, A_m$. + Dann gilt + \begin{equation*} + \e^{t A} = \diag\left\{ \e^{t A_1}, \dots,\e^{t A_m} \right\}. + \end{equation*} +\end{lemma} + +\begin{proof} + Beweis analog~\hyperref[thm:matrixexponential-diagonal]{Satz~\ref*{thm:matrixexponential-diagonal}} +\end{proof} + +Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}}, +dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,n$ reduzieren lässt.\\ +Ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen zu +\begin{equation*} + J_i = \begin{pmatrix} + \lambda_i & 1 & & \\ + & \lambda_i & \ddots & \\ + & & \ddots & 1 \\ + & & & \lambda_i + \end{pmatrix} + = \underbrace{\begin{pmatrix} + \lambda_i & & \\ + & \ddots & \\ + & & \lambda_i + \end{pmatrix}}_{= L_i} + + \underbrace{\begin{pmatrix} + 0 & 1 & & \\ + & 0 & \ddots & \\ + & & \ddots & 1 \\ + & & & 0 + \end{pmatrix}}_{\eqqcolon N} + = L_i + N. +\end{equation*} + +\begin{definition}[Wiederholung] + Eine Matrix $N$ heißt \emph{nilpotent}, falls ein $l \in \NN$ so existiert, dass $N^l = 0$. +\end{definition} + +\begin{corollary} + Die Matrix $N \in \NN^{l \times l}$ aus der Zerlegung $J_i = L_i + N$ ist eine nilpotente Matrix mit $N^l = 0$. +\end{corollary} + +Betrachtet man den Vorgang des Potenzierens von $N$ ausführlicher, erkennt man, +dass die Nebendiagonale auf denen die $1$en stehen sich \enquote{nach oben-rechts hinaus schiebt}: +\begin{equation*} + N = \begin{pmatrix} + 0 & 1 & & \\ + & \ddots & \ddots & \\ + & & \ddots & 1\\ + & & & 0 + \end{pmatrix}, + N^2 = \begin{pmatrix} + 0 & 0 & 1 & & \\ + & \ddots & \ddots & \ddots & \\ + & & \ddots & \ddots & 1\\ + & & & \ddots & 0\\ + & & & & 0 + \end{pmatrix}, + \dots, + N^{l-1} = \begin{pmatrix} + 0 & & 1\\ + & \ddots & \\ + & & 0 + \end{pmatrix}, + N^l = \mathfrak{0} +\end{equation*} + +\begin{lemma} + Die Matrizen $L_i$ und $N$ aus der Zerlegung $J_i = L_i + N$ kommutieren bzgl.\ dem Matrixprodukt. +\end{lemma} + +\begin{proof} + \begin{equation*} + L_i N = (\lambda_i E) N = \lambda_i (EN) = \lambda_i (NE) = N (\lambda_i E) = N L_i, + \end{equation*} +\end{proof} + +Damit gilt +\begin{equation*} + \e^{t (L_i + N)} = \e^{t L_i + t N} = \e^{t L_i} \e^{t N}. +\end{equation*} + +Da $L_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^{t L}$ bereits aus~\autoref{subsec:diagonale-matrizen} bekannt. +Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^{t N}$, +da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h. +\begin{align*} + \e^ {tN } &= \sum^\infty_{k=0} \frac{(t N)^k}{k!} + = \sum^{l-1}_{k=0} \frac{(t N)^k}{k!} + = E + t N + \frac{t^2}{2} N^2 + \dots + \frac{t^{l-1}}{(l-1)!} N^{l-1}\\ + &= E + t N + \frac{t^2}{2} \begin{pmatrix} + 0 & 0 & 1 & & \\ + & \ddots & \ddots & \ddots & \\ + & & \ddots & \ddots & 1\\ + & & & \ddots & 0\\ + & & & & 0 + \end{pmatrix} + + \dots + \frac{t^{l-1}}{(l-1)!} \begin{pmatrix} + 0 & & 1\\ + & \ddots & \\ + & & 0 + \end{pmatrix}\\ + &= \begin{pmatrix} + 1 & t & \frac{t^2}{2} & \frac{t^3}{3!} & \dots & \frac{t^{l-1}}{(l-1)!}\\ + & 1 & t & \frac{t^2}{2} & \dots & \frac{t^{l-2}}{(l-2)!}\\ + & & 1 & t & \ddots & \vdots\\ + & & & 1 & \ddots & \frac{t^2}{2}\\ + & & & & \ddots & t\\ + & & & & & 1 + \end{pmatrix}. +\end{align*} + +\begin{remark*} + Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$ + mit J\textc{ordan}-Normalform $J$, gilt also insgesamt + \begin{align*} + \vec{y}(t) &= \e^{(t - t_0) A} \vec{y}_0 = \e^{(t - t_0) V L V^{-1}} \vec{y}_0 = V \e^{(t - t_0) J} V^{-1} \vec{y}_0\\ + &= V \begin{pmatrix} + \e^{(t - t_0) J_1} & & \\ + & \ddots & \\ + & & \e^{(t - t_0) J_n} + \end{pmatrix} V^{-1} \vec{y}_0\\ + &= V \begin{pmatrix} + \e^{(t - t_0) L_1} \e^{(t - t_0) N} & & \\ + & \ddots & \\ + & & \e^{(t - t_0) L_n} \e^{(t - t_0) N} + \end{pmatrix} V^{-1} \vec{y}_0. + \end{align*} +\end{remark*} + +\begin{example*} + Gegeben sei das~\ref{eq:cp} + \begin{equation*} + \vec{y}'(t) = \underbrace{\begin{pmatrix} a & 1\\ 0 & a \end{pmatrix}}_{= A} y(t),\ a \in \RR, + \qquad \vec{y}(t_0 = 0) = \vec{y}_0 = \begin{pmatrix}y_1\\ y_2\end{pmatrix}. + \end{equation*} + $A$ lässt sich zerlegen in eine Diagonalmatrix $D$ und nilpotente Matrix $N$: + \begin{equation*} + A = \underbrace{\begin{pmatrix} a & 0\\ 0 & a \end{pmatrix}}_{\eqqcolon D} + + \underbrace{\begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix}}_{\eqqcolon N} + \end{equation*} + Nach~\hyperref[thm:existenz-eindeutigkeit]{Satz~\ref*{thm:existenz-eindeutigkeit}} und~\autoref{sec:berechnung-matrixexponential} ist die Lösung gegeben durch + \begin{alignat*}{2} + \vec{y}(t) &= \e^{t A} \vec{y}_0 + &&= \e^{t (D + N)} \vec{y}_0\\ + &= \e^{t D + t N} \vec{y}_0 + &&= \e^{t D} \e^{t N} \vec{y}_0\\ + &= \begin{pmatrix} \e^{t a} & 0\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix} 1 & t\\ 0 & 1 \end{pmatrix} \vec{y}_0 + &&= \begin{pmatrix} \e^{t a} & t \e^{t a}\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix}y_1\\ y_2\end{pmatrix}\\ + &= \begin{pmatrix} y_1 \e^{t a} + y_2 t \e^{t a}\\ y_2 \e^{t a} \end{pmatrix} + &&= \begin{pmatrix} \e^{t a} (y_1 + y_2 t)\\ y_2 \e^{t a} \end{pmatrix} + \end{alignat*} +\end{example*} \ No newline at end of file diff --git a/sections/02_existenz_eindeutigkeit.tex b/sections/02_existenz_eindeutigkeit.tex deleted file mode 100644 index 3c772ae..0000000 --- a/sections/02_existenz_eindeutigkeit.tex +++ /dev/null @@ -1,34 +0,0 @@ -Ein~\ref{eq:dgls} zusammen mit einem einem Anfangswertvektor -\begin{equation*} - \vec{y}(x_0) \coloneqq \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix} \in \RR^n -\end{equation*} -an der Stelle $x_0 \in \RR$ nennt man ein \emph{C\textc{auchy}-Problem} oder \emph{Anfangswertproblem}. - -\begin{theorem}[Existenz- und Eindeutigkeit] - Vorgelegt sei ein C\textc{auchy}-Problem - \begin{equation}\tag{CP}\label{eq:cp} - \vec{y}'(x) = A \vec{y}(x), \qquad \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix}. - \end{equation} - Dann besitzt~\eqref{eq:cp} eine eindeutig bestimmte Lösung $\vec{y}$ auf $\RR$ mit der Form - \begin{equation}\tag{$\ast$}\label{eq:solution} - \vec{y}(x) = e^{(x - x_0) A} \vec{y}_0. - \end{equation} -\end{theorem} - -\begin{proof} - \begin{itemize} - \item \underline{Existenz:}\\ - Einsetzen in die rechte Seite von~\eqref{eq:solution} in~\eqref{eq:cp} liefert - \begin{equation*} - A \vec{y}(x) = A e^{(x - x_0) A} \vec{y}_0. - \end{equation*} - Zusammen mit~\eqref{*} folgt direkt, dass~\eqref{eq:solution} das C\textc{auchy}-Problem löst. - - \item \underline{Eindeutigkeit:}\\ - Angenommen $\vec{u}(x)$ sei eine weitere Lösung, d.h.~es gilt $\vec{u}' = A \vec{u},\ \vec{u}(x_0) = \vec{y}_0$. - Dann ist - \begin{align*} - \dfdx{}{x} \left( \text{tbc.} \right) - \end{align*} - \end{itemize} -\end{proof} \ No newline at end of file diff --git a/sections/03_anwendung_auf_jnf.tex b/sections/03_anwendung_auf_jnf.tex deleted file mode 100644 index 03df2d8..0000000 --- a/sections/03_anwendung_auf_jnf.tex +++ /dev/null @@ -1,287 +0,0 @@ -Die gewonnenen Erkenntnisse können nun dazu genutzt werden, -um Lösungen für homogene lineare Differentialgleichungssysteme mit konstanten Koeffizienten zu finden. - -\subsection{Diagonale Matrizen}\label{subsec:03-01} -Zunächst werden diagonale Matrizen $A = \diag\{a_1,\dots,a_n\}$ betrachtet. -Vorgegeben sei also eine Diagonalmatrix -\begin{equation*} - A = \diag\{a_1,\dots,a_n\} - = \begin{pmatrix} - a_1 & & \\ - & \ddots & \\ - & & a_3 - \end{pmatrix}. -\end{equation*} -Für ein~\ref{eq:dgls} liegen dann die $n$ unabhängigen Differentialgleichungen -\begin{equation*} - y'_i(x) = a_i y_i(x) \qquad (i = 1,\dots,n) -\end{equation*} -vor, deren Lösungen zu einem gegebenen Anfangswert $\vec{y}_0 = (y_{0_1},\dots,y_{0_n})^T$ durch -\begin{equation*} - y_i(x) = \e^{(x - x_0) a_i} y_{0_i} \qquad (i = 1,\dots,n) -\end{equation*} -gegeben sind. -Mittels Matrixexponentialfunktion lässt sich die Lösung also durch -\begin{equation*} - \vec{y}(x) = \e^{(x - x_0) A} - = \begin{pmatrix} - \e^{(x - x_0) a_1} & & \\ - & \ddots & \\ - & & \e^{(x - x_0) a_n} - \end{pmatrix} -\end{equation*} -angeben. - -\subsection{Diagonalisierbare Matrizen}\label{subsec:03-02} -Das Lösen eines~\ref{eq:dgls}s mit einer diagonalisierbaren Koeffizientenmatrix $A$ kann auf den obigen Fall der~\nameref{subsec:03-01} -zurückgeführt werden. -Dazu wird $A$ durch eine Diagonalmatrix $L = \diag\{\lambda_1,\dots,\lambda_n\}$ aus den Eigenwerten $\lambda_i$ ($i = 1,\dots,n$) -und durch die Matrix $V$ der zugehörigen Eigenvektoren mit -\begin{equation*} - A = V L V^{-1} -\end{equation*} -dargestellt. - -\begin{theorem}\label{thm:diagbar-cp-solution} - Sei $A = V L V^{-1}$ eine diagonalisierbare Matrix mit $L = \diag\{\lambda_1,\dots,\lambda_n\}$, - wobei $\lambda_i$ ($i = 1,\dots,n$) die Eigenwerte und $V$ die Matrix mit den zugehörigen Eigenvektoren von $A$ sind. - Dann ist die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} - \begin{gather*} - \vec{y}'(x) = A \vec{y}(x) = V L V^{-1} \vec{y}(x), \qquad \vec{y}_0 = (y_{1_0},\dots,y_{n_0})^T\\ - \intertext{durch} - \begin{aligned} - \vec{y}(x) - &= V \e^{(x - x_0) L} V^{-1} \vec{y}_0\\ - \big( &= \left. V \diag\left\{\e^{(x - x_0) \lambda_1}, \dots,\e^{(x - x_0) \lambda_n}\right\} V^{-1} \right) - \end{aligned} - \end{gather*} - gegeben. -\end{theorem} - -\begin{proof} - Das~\ref{eq:dgls} - \begin{gather*} - \vec{y}'(x) = V L V^{-1} \vec{y}(x)\\ - \intertext{lässt sich zu} - V^{-1} \vec{y}'(x) = L V^{-1} \vec{y}(x). - \end{gather*} - umformen. - Durch Substitution von $\vec{u} = V^{-1} \vec{y}$ ergibt sich das~\ref{eq:cp} - \begin{equation}\tag{$\triangle$}\label{eq:03-02-01} - \vec{u}'(x) = L \vec{u}(x), \qquad \vec{u}_0 \coloneqq \vec{u}(x_0) = V^{-1} \vec{y}(x_0) = V^{-1} \vec{y}_0. - \end{equation} - Da $L$ eine Diagonalmatrix ist, folgt mit~\autoref{subsec:03-01}, dass - \begin{equation*} - \vec{u}(x) = \e^{(x - x_0) L} \vec{u}_0 - \end{equation*} - die Lösung von~\eqref{eq:03-02-01} ist. - Rücksubstitution ergibt schließlich die Lösung - \begin{alignat*}{2} - && \vec{u}(x) &= \e^{(x - x_0) L} \vec{u}_0\\ - \Leftrightarrow\quad && V^{-1} \vec{y} &= \e^{(x - x_0) L} V^{-1} \vec{y}_0\\ - \Leftrightarrow\quad && \vec{y} &= V \e^{(x - x_0) L} V^{-1} \vec{y}_0. - \end{alignat*} -\end{proof} - -\begin{corollary} - Sei $A$ diagonalisierbar mit $A = V L V^{-1}$. - Dann gilt für die Matrixexponentialfunktion - \begin{equation*} - \e^{A} = V \e^{L} V^{-1}. - \end{equation*} -\end{corollary} - -\begin{proof} - Zuerst wird gezeigt, dass $A^k = V L^k V^{-1}$ für $k \in \NN$: - \begin{alignat*}{2} - A^k &= (V L V^{-1})^k &&= \underbrace{(V L V^{-1}) (V L V^{-1}) (V L V^{-1}) \dots (V L V^{-1})}_{k \text{-mal}}\\ - &= V L \underbrace{(V^{-1} V)}_{E} L \underbrace{(V^{-1} V)}_{E} \dots \underbrace{(V^{-1} V)}_{E} L V^{-1} &&= V \underbrace{L \cdots L}_{k \text{-mal}} V^{-1}\\ - &= V L^k V^{-1} - \end{alignat*} - Damit folgt dann für die Matrixexponentialfunktion - \begin{alignat*}{2} - \e^{A} &= \e^{V L V^{-1}} &&= \sum^\infty_{k=0} \frac{(V L V^{-1})^k}{k!}\\ - &= \sum^\infty_{k=0} \frac{V L^k V^{-1}}{k!} &&= V \left( \sum^\infty_{k=0} \frac{L^k}{k!} \right) V^{-1}\\ - &= V e^L V^{-1} - \end{alignat*} -\end{proof} - -\emph{Bemerkung:} \hyperref[thm:diagbar-cp-solution]{Folgerung~\ref*{thm:diagbar-cp-solution}} lässt sich leicht ersichtlich auf einen allgemeinen Fall von ähnlichen Matrizen $A = S B S^{-1}$ übertragen, d.h. -\begin{equation*} - \e^A = \e^{S B S^{-1}} = S \e^B S^{-1}. -\end{equation*} - -\subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:03-03} -Jede Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = V^{-1} L V$ bringen. -Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form -\begin{gather*} - J = \begin{pmatrix} - J_1 & & \\ - & \ddots & \\ - & & J_n - \end{pmatrix}\\ - \intertext{mit J\textc{ordan}-Block} - J_i = \begin{pmatrix} - \lambda_i & 1 & & \\ - & \lambda_i & \ddots & \\ - & & \ddots & 1 \\ - & & & \lambda_i - \end{pmatrix} - \qquad (i = 1,\dots,n). -\end{gather*} -Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten, -dass die gewonnenen Erkenntnisse aus~\autoref{subsec:03-02} anwendbar sein könnten. - -\begin{lemma}\label{thm:blockdiag-exp} - Sei $A \in \RR^{nd \times nd}$ eine Blockdiagonalmatrix - \begin{equation*} - A = \begin{pmatrix} - A_1 & & \\ - & \ddots & \\ - & & A_n - \end{pmatrix}, - \end{equation*} - mit quadratischen Matrizen $A_1, \dots, A_n \in \RR^{d \times d}$. - Dann gilt - \begin{equation*} - \e^A = \begin{pmatrix} - \e^{A_1} & & \\ - & \ddots & \\ - & & \e^{A_n} - \end{pmatrix}. - \end{equation*} -\end{lemma} - -\begin{proof} - Es gilt - \begin{equation*} - A^k = \begin{pmatrix} - A^k_1 & & \\ - & \ddots & \\ - & & A^k_n - \end{pmatrix}. - \end{equation*} - Damit folgt dann - \begin{alignat*}{2} - \e^A - &= \sum^\infty_{k=0} \frac{A^k}{k!} - &&= \sum^\infty_{k=0} \frac{1}{k!} - \begin{pmatrix} - A^k_1 & & \\ - & \ddots & \\ - & & A^k_n - \end{pmatrix}\\ - &= \sum^\infty_{k=0} - \begin{pmatrix} - \frac{A^k_1}{k!} & & \\ - & \ddots & \\ - & & \frac{A^k_n}{k!} - \end{pmatrix} - &&= \begin{pmatrix} - \sum^\infty_{k=0} \frac{A^k_1}{k!} & & \\ - & \ddots & \\ - & & \sum^\infty_{k=0} \frac{A^k_n}{k!} - \end{pmatrix}\\ - &= \begin{pmatrix} - \e^{A_1} & & \\ - & \ddots & \\ - & & \e^{A_n} - \end{pmatrix} - \end{alignat*} -\end{proof} - -Es ergeben sich also Lösungen eines gegebenen~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$ durch -\begin{equation*} - \vec{y}(x) = V \e^{(x - x_0) J} V^{-1} \vec{y}_0. -\end{equation*} -Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}}, -dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,n$ reduzieren lässt.\\ -Ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen zu -\begin{equation*} - J_i = \begin{pmatrix} - \lambda_i & 1 & & \\ - & \lambda_i & \ddots & \\ - & & \ddots & 1 \\ - & & & \lambda_i - \end{pmatrix} - = \underbrace{\begin{pmatrix} - \lambda & & \\ - & \ddots & \\ - & & \lambda - \end{pmatrix}}_{= L_i} - + \underbrace{\begin{pmatrix} - 0 & 1 & & \\ - & 0 & \ddots & \\ - & & \ddots & 1 \\ - & & & 0 - \end{pmatrix}}_{\eqqcolon N} - = L_i + N. -\end{equation*} -Dabei ist $N$ eine \emph{nilpotente} Matrix, d.h.\ es existiert ein $l \in \NN$ so, dass $N^l = 0$. -Zudem kommutieren die Matrizen $L_i$ und $N$, da -\begin{gather*} - L_i N = (\lambda_i E) N = \lambda (EN) = \lambda (NE) = N (\lambda_i E) = N L_i,\\ - \intertext{weshalb} - \e^{L_i + N} = \e^{L_i} \e^N -\end{gather*} -gilt. -Da $L_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^L$ bereits aus~\autoref{subsec:03-01} bekannt. -Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^N$, -da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h. -\begin{align*} - \e^N &= \sum^\infty_{k=0} \frac{N^k}{k!} - = \sum^{l-1}_{k=0} \frac{N^k}{k!} - = E + N + \frac{1}{2} N^2 + \dots + \frac{1}{(l-1)!} N^{l-1}\\ - &= E + N + \frac{1}{2} \begin{pmatrix} - 0 & 0 & 1 & & \\ - & \ddots & \ddots & \ddots & \\ - & & \ddots & \ddots & 1\\ - & & & \ddots & 0\\ - & & & & 0 - \end{pmatrix} - + \dots + \frac{1}{(l-1)!} \begin{pmatrix} - 0 & & 1\\ - & \ddots & \\ - & & 0 - \end{pmatrix}\\ - &= \begin{pmatrix} - 1 & 1 & \frac{1}{2} & \frac{1}{3!} & \dots & \frac{1}{(l-1)!}\\ - & 1 & 1 & \frac{1}{2} & \dots & \frac{1}{(l-2)!}\\ - & & 1 & 1 & \dots & \vdots\\ - & & & 1 & \ddots & \frac{1}{2}\\ - & & & & \ddots & 1\\ - & & & & & 1 - \end{pmatrix}. -\end{align*} -Werden nun alle Erkenntnisse kombiniert, gilt für $\e^{J_i t}$ schließlich -\begin{align*} - \e^{J_i t} &= \e^{(L_i + N) t} = \e^{L_i t + Nt} = \e^{L_i t} \e^{Nt}\\ - &= \begin{pmatrix} - \e^{\lambda_i t} & & \\ - & \ddots & \\ - & & \e^{\lambda_i t} - \end{pmatrix} - \begin{pmatrix} - 1 & t & \frac{t^2}{2} & \frac{t^3}{3!} & \dots & \frac{t^{l-1}}{(l-1)!}\\ - & 1 & t & \frac{t^2}{2} & \dots & \frac{t^{l-2}}{(l-2)!}\\ - & & 1 & x & \dots & \vdots\\ - & & & 1 & \ddots & \frac{t^2}{2}\\ - & & & & \ddots & t\\ - & & & & & 1 - \end{pmatrix}. -\end{align*} -Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$, -gilt insgesamt also -\begin{align*} - \vec{y}(x) &= V \e^{(x - x_0) J} V^{-1} \vec{y}_0\\ - &= V \begin{pmatrix} - \e^{(x - x_0) J_1} & & \\ - & \ddots & \\ - & & \e^{(x - x_0) J_n} - \end{pmatrix} V^{-1} \vec{y}_0\\ - &= V \begin{pmatrix} - \e^{(x - x_0) L_1} \e^{(x - x_0) N} & & \\ - & \ddots & \\ - & & \e^{(x - x_0) L_n} \e^{(x - x_0) N} - \end{pmatrix} V^{-1} \vec{y}_0. -\end{align*} \ No newline at end of file