1
0

minor changes

This commit is contained in:
Niklas Birk 2023-06-06 16:49:15 +02:00
parent e6b231c1d4
commit f7ecdeb4ce
3 changed files with 51 additions and 55 deletions

View File

@ -59,7 +59,7 @@
\DeclareTextFontCommand{\emph}{\boldmath\bfseries} \DeclareTextFontCommand{\emph}{\boldmath\bfseries}
\allowdisplaybreaks %\allowdisplaybreaks
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% new commands and math operatos % % new commands and math operatos %

View File

@ -38,20 +38,16 @@
Das Ergebnis von $\e^{t A} \in \RR^{n \times n}$ ist eine Matrix. Das Ergebnis von $\e^{t A} \in \RR^{n \times n}$ ist eine Matrix.
Demnach ist $\e^{t A} \vec{u}(t) \in \RR^{n \times 1}$ ein Matrix-Vektor-Produkt, deren Komponenten sich durch Demnach ist $\e^{t A} \vec{u}(t) \in \RR^{n \times 1}$ ein Matrix-Vektor-Produkt, deren Komponenten sich durch
\begin{equation*} \begin{equation*}
(\e^{t A} \vec{u}(t))_i = \sum^n_{j=1} \e^{t A}_{ij} \cdot u_j(t) (\e^{t A} \vec{u}(t))_i = \sum^n_{j=1} \left( \e^{t A} \right)_{ij} \cdot u_j(t)
\end{equation*} \end{equation*}
ergeben. ergeben.
Differenzieren der Komponenten, zusammen mit Linearität des Differentialoperators und der üblichen Produktregel, liefert Differenzieren der Komponenten, zusammen mit Linearität des Differentialoperators und der üblichen Produktregel, liefert
\begin{align*} \begin{align*}
\dfdx{}{t}(\e^{t A} \vec{u}(t))_i \dfdx{}{t}(\e^{t A} \vec{u}(t))_i
&= \dfdx{}{t} \left( \sum^n_{j=1} \e^{t A}_{ij} \cdot u_j(t) \right)\\ &= \dfdx{}{t} \left( \sum^n_{j=1} \left( \e^{t A} \right)_{ij} \cdot u_j(t) \right)
&= \dfdx{}{t} \left( \e^{t A}_{i1} \cdot u_j(t) + \dots + \e^{t A}_{in} \cdot u_j(t) \right)\\ = \sum^n_{j=1} \left( \left( \e^{t A} \right)_{ij} \cdot \dfdx{u_j(t)}{t} + \dfdx{\left( \e^{t A} \right)_{ij}}{t} \cdot u_j(t) \right)\\
&= \dfdx{}{t} \left( \e^{t A}_{i1} \cdot u_j(t) \right) + \dots + \dfdx{}{t} \left( \e^{t A}_{in} \cdot u_j(t) \right)\\ &= \sum^n_{j=1} \left( \left( \e^{t A} \right)_{ij} \cdot \dfdx{u_j(t)}{t} \right)
&= \left( \e^{t A}_{i1} \cdot \dfdx{u_j(t)}{t} + \dfdx{\e^{t A}_{i1}}{t} \cdot u_j(t) \right) + \sum^n_{j=1} \left( \dfdx{\left( \e^{t A} \right)_{ij}}{t} \cdot u_j(t) \right).
+ \dots + \left( \e^{t A}_{in} \cdot \dfdx{u_j(t)}{t} + \dfdx{\e^{t A}_{in}}{t} \cdot u_j(t) \right)\\
&= \sum^n_{j=1} \left( \e^{t A}_{ij} \cdot \dfdx{u_j(t)}{t} + \dfdx{\e^{t A}_{ij}}{t} \cdot u_j(t) \right)\\
&= \sum^n_{j=1} \left( \e^{t A}_{ij} \cdot \dfdx{u_j(t)}{t} \right)
+ \sum^n_{j=1} \left( \dfdx{\e^{t A}_{ij}}{t} \cdot u_j(t) \right).
\end{align*} \end{align*}
Das ist ganzheitlich betrachtet gerade Das ist ganzheitlich betrachtet gerade
\begin{equation*} \begin{equation*}

View File

@ -9,8 +9,8 @@ Zunächst werden diagonale Matrizen
= \begin{pmatrix} = \begin{pmatrix}
a_1 & & \\ a_1 & & \\
& \ddots & \\ & \ddots & \\
& & a_3 & & a_n
\end{pmatrix} \end{pmatrix} \in \CC^{n \times n}
\end{equation*} \end{equation*}
betrachtet. betrachtet.
@ -67,7 +67,7 @@ Das Berechnen einer Matrixexponentialfunktion mit einer diagonalisierbaren Matri
kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Matrizen} zurückgeführt werden. kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Matrizen} zurückgeführt werden.
\begin{definition}[Wiederholung] \begin{definition}[Wiederholung]
Eine Matrix $A$ heißt \emph{diagonalisierbar}, falls eine Diagonalmatrix $D$ und eine reguläre Matrix $A$ so existieren, dass Eine Matrix $A \in \CC^{n \times n}$ heißt \emph{diagonalisierbar}, falls eine Diagonalmatrix $D$ und eine reguläre Matrix $S$ so existieren, dass
\begin{equation*} \begin{equation*}
A = S D S^{-1} A = S D S^{-1}
\end{equation*} \end{equation*}
@ -87,7 +87,7 @@ kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Mat
\begin{alignat*}{2} \begin{alignat*}{2}
A^k &= (S B S^{-1})^k &&= \underbrace{(S B S^{-1}) (S B S^{-1}) (S B S^{-1}) \dots (S B S^{-1})}_{k \text{-mal}}\\ A^k &= (S B S^{-1})^k &&= \underbrace{(S B S^{-1}) (S B S^{-1}) (S B S^{-1}) \dots (S B S^{-1})}_{k \text{-mal}}\\
&= SB\underbrace{(S^{-1} S)}_{E} B \underbrace{(S^{-1} S)}_{E} \dots \underbrace{(S^{-1} S)}_{E} B S^{-1} &= SB\underbrace{(S^{-1} S)}_{E} B \underbrace{(S^{-1} S)}_{E} \dots \underbrace{(S^{-1} S)}_{E} B S^{-1}
&&= S \underbrace{L \cdots L}_{k \text{-mal}} S^{-1}\\ &&= S \underbrace{B \cdots B}_{k \text{-mal}} S^{-1}\\
&= S B^k S^{-1} &= S B^k S^{-1}
\end{alignat*} \end{alignat*}
Damit folgt dann für die Matrixexponentialfunktion Damit folgt dann für die Matrixexponentialfunktion
@ -113,13 +113,13 @@ kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Mat
\end{proof} \end{proof}
\subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:nichtdiagonalisierbare-matrizen} \subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:nichtdiagonalisierbare-matrizen}
Jede quadratische Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = V^{-1} A V$ bringen. Jede quadratische Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = S^{-1} A S$ bringen.
Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form
\begin{gather*} \begin{gather*}
J = \begin{pmatrix} J = \begin{pmatrix}
J_1 & & \\ J_1 & & \\
& \ddots & \\ & \ddots & \\
& & J_n & & J_k
\end{pmatrix}\\ \end{pmatrix}\\
\intertext{mit J\textc{ordan}-Block} \intertext{mit J\textc{ordan}-Block}
J_i = \begin{pmatrix} J_i = \begin{pmatrix}
@ -128,26 +128,26 @@ Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form
& & \ddots & 1 \\ & & \ddots & 1 \\
& & & \lambda_i & & & \lambda_i
\end{pmatrix} \end{pmatrix}
\qquad (i = 1,\dots,n). \qquad (i = 1,\dots,k).
\end{gather*} \end{gather*}
Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten, Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten,
dass die gewonnenen Erkenntnisse aus~\autoref{subsec:diagonalisierbare-matrizen} zur Berechnung der dass die gewonnenen Erkenntnisse aus~\autoref{subsec:diagonalisierbare-matrizen} zur Berechnung der
Matrixexponentialfunktion $\e^{A} = \e^{V J V^{-1}}$ anwendbar sein könnten. Matrixexponentialfunktion $\e^{A} = \e^{S J S^{-1}}$ anwendbar sein könnten.
\begin{lemma}\label{thm:blockdiag-exp} \begin{lemma}\label{thm:blockdiag-exp}
Sei $A \in \RR^{n \times n}$ eine Blockdiagonalmatrix Sei $A \in \CC^{n \times n}$ eine Blockdiagonalmatrix
\begin{equation*} \begin{equation*}
A = \diag\left\{A_1,\dots,A_m\right\} A = \diag\left\{A_1,\dots,A_k\right\}
= \begin{pmatrix} = \begin{pmatrix}
A_1 & & \\ A_1 & & \\
& \ddots & \\ & \ddots & \\
& & A_m & & A_k
\end{pmatrix}, \end{pmatrix},
\end{equation*} \end{equation*}
mit quadratischen Matrizen $A_1, \dots, A_m$. mit quadratischen Matrizen $A_1, \dots, A_k$.
Dann gilt Dann gilt
\begin{equation*} \begin{equation*}
\e^{t A} = \diag\left\{ \e^{t A_1}, \dots,\e^{t A_m} \right\}. \e^{t A} = \diag\left\{ \e^{t A_1}, \dots,\e^{t A_k} \right\}.
\end{equation*} \end{equation*}
\end{lemma} \end{lemma}
@ -156,7 +156,7 @@ Matrixexponentialfunktion $\e^{A} = \e^{V J V^{-1}}$ anwendbar sein könnten.
\end{proof} \end{proof}
Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}}, Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}},
dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,n$ reduzieren lässt. dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,k$ reduzieren lässt.
Dafür werden im Folgenden die J\textc{ordan}-Blöcke $J_i$ betrachtet, Dafür werden im Folgenden die J\textc{ordan}-Blöcke $J_i$ betrachtet,
denn ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen in denn ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen in
\begin{equation*} \begin{equation*}
@ -170,26 +170,26 @@ denn ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen in
\lambda_i & & \\ \lambda_i & & \\
& \ddots & \\ & \ddots & \\
& & \lambda_i & & \lambda_i
\end{pmatrix}}_{= L_i} \end{pmatrix}}_{= D_i}
+ \underbrace{\begin{pmatrix} + \underbrace{\begin{pmatrix}
0 & 1 & & \\ 0 & 1 & & \\
& 0 & \ddots & \\ & 0 & \ddots & \\
& & \ddots & 1 \\ & & \ddots & 1 \\
& & & 0 & & & 0
\end{pmatrix}}_{\eqqcolon N} \end{pmatrix}}_{\eqqcolon N}
= L_i + N. = D_i + N.
\end{equation*} \end{equation*}
\begin{definition}[Wiederholung] \begin{definition}[Wiederholung]
Eine Matrix $N$ heißt \emph{nilpotent}, falls ein $l \in \NN$ so existiert, dass $N^l = 0$. Eine Matrix $N$ heißt \emph{nilpotent}, falls ein $m \in \NN$ so existiert, dass $N^m = 0$.
\end{definition} \end{definition}
\begin{corollary} \begin{corollary}
Die Matrix $N \in \NN^{l \times l}$ aus der Zerlegung $J_i = L_i + N$ ist eine nilpotente Matrix mit $N^l = 0$. Die $(m \times m)$-Matrix $N$ aus der Zerlegung $J_i = D_i + N$ ist eine nilpotente Matrix mit $N^m = 0$.
\end{corollary} \end{corollary}
Betrachtet man den Vorgang des Potenzierens von $N$ ausführlicher, erkennt man, Betrachtet man den Vorgang des Potenzierens von $N$ ausführlicher, erkennt man,
dass die Nebendiagonalen auf denen die $1$en stehen \enquote{nach oben-rechts hinaus} geschoben werden: dass die Nebendiagonalen auf denen die $1$en stehen \enquote{nach oben-rechts hinaus} geschoben werden und ab der $m$-ten Potenz die Nullmatrix ist:
\begin{equation*} \begin{equation*}
N = \begin{pmatrix} N = \begin{pmatrix}
0 & 1 & & \\ 0 & 1 & & \\
@ -205,36 +205,36 @@ dass die Nebendiagonalen auf denen die $1$en stehen \enquote{nach oben-rechts hi
& & & & 0 & & & & 0
\end{pmatrix}, \end{pmatrix},
\dots, \dots,
N^{l-1} = \begin{pmatrix} N^{m-1} = \begin{pmatrix}
0 & & 1\\ 0 & & 1\\
& \ddots & \\ & \ddots & \\
& & 0 & & 0
\end{pmatrix}, \end{pmatrix},
N^l = \vec{0}_l N^m = \vec{0}
\end{equation*} \end{equation*}
\begin{lemma} \begin{lemma}
Die Matrizen $L_i$ und $N$ aus der Zerlegung $J_i = L_i + N$ kommutieren bzgl.\ der Matrixmultiplikation. Die Matrizen $D_i$ und $N$ aus der Zerlegung $J_i = D_i + N$ kommutieren bzgl.\ der Matrixmultiplikation.
\end{lemma} \end{lemma}
\begin{proof} \begin{proof}
\begin{equation*} \begin{equation*}
L_i N = (\lambda_i E) N = \lambda_i (EN) = \lambda_i (NE) = N (\lambda_i E) = N L_i, D_i N = (\lambda_i E) N = \lambda_i (EN) = \lambda_i (NE) = N (\lambda_i E) = N D_i,
\end{equation*} \end{equation*}
\end{proof} \end{proof}
Damit gilt Damit gilt
\begin{equation*} \begin{equation*}
\e^{t (L_i + N)} = \e^{t L_i + t N} = \e^{t L_i} \e^{t N}. \e^{t (D_i + N)} = \e^{t D_i + t N} = \e^{t D_i} \e^{t N}.
\end{equation*} \end{equation*}
Da $L_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^{t L_i}$ bereits aus~\autoref{subsec:diagonale-matrizen} bekannt. Da $D_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^{t D_i}$ bereits aus~\autoref{subsec:diagonale-matrizen} bekannt.
Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^{t N}$, Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^{t N}$,
da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h. da ab einem $m \in \NN$ gilt, dass $N^m = N^{m+1} = \dots = 0$, d.h.
\begin{align*} \begin{align*}
\e^ {tN } &= \sum^\infty_{k=0} \frac{(t N)^k}{k!} \e^ {tN } &= \sum^\infty_{k=0} \frac{(t N)^k}{k!}
= \sum^{l-1}_{k=0} \frac{(t N)^k}{k!} = \sum^{l-1}_{k=0} \frac{(t N)^k}{k!}
= E + t N + \frac{t^2}{2} N^2 + \dots + \frac{t^{l-1}}{(l-1)!} N^{l-1}\\ = E + t N + \frac{t^2}{2} N^2 + \dots + \frac{t^{m-1}}{(m-1)!} N^{m-1}\\
&= E + t N + \frac{t^2}{2} \begin{pmatrix} &= E + t N + \frac{t^2}{2} \begin{pmatrix}
0 & 0 & 1 & & \\ 0 & 0 & 1 & & \\
& \ddots & \ddots & \ddots & \\ & \ddots & \ddots & \ddots & \\
@ -242,14 +242,14 @@ da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
& & & \ddots & 0\\ & & & \ddots & 0\\
& & & & 0 & & & & 0
\end{pmatrix} \end{pmatrix}
+ \dots + \frac{t^{l-1}}{(l-1)!} \begin{pmatrix} + \dots + \frac{t^{m-1}}{(m-1)!} \begin{pmatrix}
0 & & 1\\ 0 & & 1\\
& \ddots & \\ & \ddots & \\
& & 0 & & 0
\end{pmatrix}\\ \end{pmatrix}\\
&= \begin{pmatrix} &= \begin{pmatrix}
1 & t & \frac{t^2}{2} & \frac{t^3}{3!} & \dots & \frac{t^{l-1}}{(l-1)!}\\ 1 & t & \frac{t^2}{2} & \frac{t^3}{3!} & \dots & \frac{t^{m-1}}{(m-1)!}\\
& 1 & t & \frac{t^2}{2} & \dots & \frac{t^{l-2}}{(l-2)!}\\ & 1 & t & \frac{t^2}{2} & \dots & \frac{t^{m-2}}{(m-2)!}\\
& & 1 & t & \ddots & \vdots\\ & & 1 & t & \ddots & \vdots\\
& & & 1 & \ddots & \frac{t^2}{2}\\ & & & 1 & \ddots & \frac{t^2}{2}\\
& & & & \ddots & t\\ & & & & \ddots & t\\
@ -258,28 +258,28 @@ da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
\end{align*} \end{align*}
\begin{remark*} \begin{remark*}
Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$ Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = S J S^{-1}$
mit J\textc{ordan}-Normalform $J$, gilt also insgesamt mit J\textc{ordan}-Normalform $J$, gilt also insgesamt
\begin{align*} \begin{align*}
\vec{u}(t) &= \e^{(t - t_0) A} \vec{u}_0 = \e^{(t - t_0) V L V^{-1}} \vec{u}_0 = V \e^{(t - t_0) J} V^{-1} \vec{u}_0\\ \vec{u}(t) &= \e^{(t - t_0) A} \vec{u}_0 = \e^{(t - t_0) S J S^{-1}} \vec{u}_0 = S \e^{(t - t_0) J} S^{-1} \vec{u}_0\\
&= V \begin{pmatrix} &= S \begin{pmatrix}
\e^{(t - t_0) J_1} & & \\ \e^{(t - t_0) J_1} & & \\
& \ddots & \\ & \ddots & \\
& & \e^{(t - t_0) J_n} & & \e^{(t - t_0) J_k}
\end{pmatrix} V^{-1} \vec{u}_0\\ \end{pmatrix} S^{-1} \vec{u}_0\\
&= V \begin{pmatrix} &= S \begin{pmatrix}
\e^{(t - t_0) L_1} \e^{(t - t_0) N} & & \\ \e^{(t - t_0) D_1} \e^{(t - t_0) N} & & \\
& \ddots & \\ & \ddots & \\
& & \e^{(t - t_0) L_n} \e^{(t - t_0) N} & & \e^{(t - t_0) D_k} \e^{(t - t_0) N}
\end{pmatrix} V^{-1} \vec{u}_0. \end{pmatrix} S^{-1} \vec{u}_0.
\end{align*} \end{align*}
\end{remark*} \end{remark*}
\begin{example*} \begin{example*}
Gegeben sei das~\ref{eq:cp} Gegeben sei das~\hyperref[eq:cp]{C\textc{auchy}-Problem}
\begin{equation*} \begin{equation*}
\vec{u}'(t) = \underbrace{\begin{pmatrix} a & 1\\ 0 & a \end{pmatrix}}_{= A} y(t),\ a \in \RR, \vec{u}'(t) = \underbrace{\begin{pmatrix} a & 1\\ 0 & a \end{pmatrix}}_{\eqqcolon A} \vec{u}(t),\ a \in \RR,
\qquad \vec{u}(t_0 = 0) = \vec{u}_0 = \begin{pmatrix}y_1\\ y_2\end{pmatrix}. \qquad \vec{u}_0 \coloneqq \vec{u}(t_0 = 0) = \begin{pmatrix}u_1\\ u_2\end{pmatrix}.
\end{equation*} \end{equation*}
$A$ lässt sich zerlegen in eine Diagonalmatrix $D$ und nilpotente Matrix $N$: $A$ lässt sich zerlegen in eine Diagonalmatrix $D$ und nilpotente Matrix $N$:
\begin{equation*} \begin{equation*}
@ -293,8 +293,8 @@ da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
&= \e^{t D + t N} \vec{u}_0 &= \e^{t D + t N} \vec{u}_0
&&= \e^{t D} \e^{t N} \vec{u}_0\\ &&= \e^{t D} \e^{t N} \vec{u}_0\\
&= \begin{pmatrix} \e^{t a} & 0\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix} 1 & t\\ 0 & 1 \end{pmatrix} \vec{u}_0 &= \begin{pmatrix} \e^{t a} & 0\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix} 1 & t\\ 0 & 1 \end{pmatrix} \vec{u}_0
&&= \begin{pmatrix} \e^{t a} & t \e^{t a}\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix}y_1\\ y_2\end{pmatrix}\\ &&= \begin{pmatrix} \e^{t a} & t \e^{t a}\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix}u_1\\ u_2\end{pmatrix}\\
&= \begin{pmatrix} y_1 \e^{t a} + y_2 t \e^{t a}\\ y_2 \e^{t a} \end{pmatrix} &= \begin{pmatrix} u_1 \e^{t a} + u_2 t \e^{t a}\\ u_2 \e^{t a} \end{pmatrix}
&&= \begin{pmatrix} \e^{t a} (y_1 + y_2 t)\\ y_2 \e^{t a} \end{pmatrix} &&= \begin{pmatrix} \e^{t a} (u_1 + u_2 t)\\ u_2 \e^{t a} \end{pmatrix}
\end{alignat*} \end{alignat*}
\end{example*} \end{example*}