Compare commits
10 Commits
a5e8eb83ec
...
92a8a61c5f
Author | SHA1 | Date | |
---|---|---|---|
92a8a61c5f | |||
1d1d850672 | |||
a3cfc2e3c4 | |||
6a7aa9412d | |||
f7ecdeb4ce | |||
e6b231c1d4 | |||
88c09488da | |||
4b4b4f66b9 | |||
51190ca83b | |||
fe9e152255 |
@ -1,18 +1,18 @@
|
|||||||
@book{heuser,
|
@book{heuser,
|
||||||
author = {Heuser, Harro},
|
author = "Heuser, Harro",
|
||||||
title = {Gew{\"o}hnliche Differentialgleichungen},
|
title = "Gew{\"o}hnliche Differentialgleichungen",
|
||||||
subtitle = {Einf{\"u}hrung in Lehre und Gebrauch},
|
subtitle = "Einf{\"u}hrung in Lehre und Gebrauch",
|
||||||
publisher = {Vieweg+Teubner Verlag},
|
publisher = "Vieweg+Teubner Verlag",
|
||||||
year = {2009},
|
year = "2009",
|
||||||
edition = {6},
|
edition = "6",
|
||||||
pages = {453,460,462},
|
pages = "453,460,462",
|
||||||
}
|
}
|
||||||
|
|
||||||
@book{grune,
|
@book{grune,
|
||||||
author = {Gr{\"u}ne, Lars AND Junge, Oliver},
|
author = "{Gr{\"u}ne, Lars} and {Junge, Oliver}",
|
||||||
title = {Gew{\"o}hnliche Differentialgleichungen},
|
title = "Gew{\"o}hnliche Differentialgleichungen",
|
||||||
subtitle = {Eine Einführung aus der Perspektive der dynamischen Systeme},
|
subtitle = "Eine Einführung aus der Perspektive der dynamischen Systeme",
|
||||||
publisher = {Vieweg+Teubner Verlag},
|
publisher = "Vieweg+Teubner Verlag",
|
||||||
year = {2009},
|
year = "2009",
|
||||||
pages = {10--16},
|
pages = "10--16",
|
||||||
}
|
}
|
@ -14,11 +14,12 @@
|
|||||||
\RequirePackage[hyperref,style=authoryear]{biblatex}
|
\RequirePackage[hyperref,style=authoryear]{biblatex}
|
||||||
|
|
||||||
% math packages
|
% math packages
|
||||||
\RequirePackage{amsmath} % general math
|
\RequirePackage{amsmath} % general math
|
||||||
\RequirePackage{amsthm} % theorems
|
\RequirePackage{amsthm} % theorems
|
||||||
\RequirePackage{amssymb} % math symbols
|
\RequirePackage{amssymb} % math symbols
|
||||||
\RequirePackage{mathtools} % coloneqq: nice ligatures of := and =:
|
\RequirePackage{mathtools} % coloneqq: nice ligatures of := and =:
|
||||||
\RequirePackage{stmaryrd} % lightning symbol
|
\RequirePackage{stmaryrd} % lightning symbol
|
||||||
|
\RequirePackage{aligned-overset} % proper alignment with oversets
|
||||||
|
|
||||||
% other packages
|
% other packages
|
||||||
\RequirePackage{enumerate} % for alphanumeric enumeration: (i), (ii), ...
|
\RequirePackage{enumerate} % for alphanumeric enumeration: (i), (ii), ...
|
||||||
@ -58,7 +59,7 @@
|
|||||||
|
|
||||||
\DeclareTextFontCommand{\emph}{\boldmath\bfseries}
|
\DeclareTextFontCommand{\emph}{\boldmath\bfseries}
|
||||||
|
|
||||||
\allowdisplaybreaks
|
%\allowdisplaybreaks
|
||||||
|
|
||||||
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
||||||
% new commands and math operatos %
|
% new commands and math operatos %
|
||||||
|
@ -10,7 +10,7 @@
|
|||||||
}
|
}
|
||||||
\subtitle{TU Bergakademie Freiberg}
|
\subtitle{TU Bergakademie Freiberg}
|
||||||
\author{Niklas Birk}
|
\author{Niklas Birk}
|
||||||
\date{16.06.2023 - SS23}
|
\date{14.06.2023 - SS23}
|
||||||
|
|
||||||
\addbibresource{proseminar.bib}
|
\addbibresource{proseminar.bib}
|
||||||
\nocite{*}
|
\nocite{*}
|
||||||
@ -23,6 +23,9 @@
|
|||||||
|
|
||||||
\printbibliography
|
\printbibliography
|
||||||
|
|
||||||
|
\vspace*{\fill}
|
||||||
|
Quellcode einsehbar unter: \url{https://git.niklas-birk.de/niklas/proseminar_algebra}
|
||||||
|
|
||||||
\newpage
|
\newpage
|
||||||
|
|
||||||
\section{Lineare Differentialgleichungssysteme mit konstanten Koeffizienten und Anwendung der Matrixexponentialfunktion}\label{sec:dgls-matrixexponential}
|
\section{Lineare Differentialgleichungssysteme mit konstanten Koeffizienten und Anwendung der Matrixexponentialfunktion}\label{sec:dgls-matrixexponential}
|
||||||
|
@ -1,59 +1,103 @@
|
|||||||
\begin{definition}
|
\begin{definition}
|
||||||
Seien $y_1,\dots,y_n: \RR \to \RR$ differenzierbar und $a_{jk} \in \RR$ für $j,k = 1,\dots,n$.
|
Seien $u_1,\dots,u_n: \RR \to \RR$ differenzierbar und $a_{jk} \in \RR$ für $j,k = 1,\dots,n$.
|
||||||
Dann heißt
|
Dann heißt
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
\begin{aligned}
|
\begin{aligned}
|
||||||
y'_1(t) &= a_{11} y_1(t) + \dots + a_{1n} y_n(t)\\
|
u'_1(t) &= a_{11} u_1(t) + \dots + a_{1n} u_n(t)\\
|
||||||
y'_2(t) &= a_{21} y_1(t) + \dots + a_{2n} y_n(t)\\
|
u'_2(t) &= a_{21} u_1(t) + \dots + a_{2n} u_n(t)\\
|
||||||
&\vdots\\
|
&\vdots\\
|
||||||
y'_n(t) &= a_{n1} y_1(t) + \dots + a_{nn} y_n(t)
|
u'_n(t) &= a_{n1} u_1(t) + \dots + a_{nn} u_n(t)
|
||||||
\end{aligned}
|
\end{aligned}
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
ein \emph{homogenes lineares Differentialgleichungssystem} (DGLS) (1. Ordnung).\\
|
ein \emph{homogenes lineares Differentialgleichungssystem} (DGLS) (1. Ordnung).\\
|
||||||
Das obige System lässt sich auch kompakt in der Form
|
Das obige System lässt sich auch kompakt in der Form
|
||||||
\begin{equation}\tag{DGLS}\label{eq:dgls}
|
\begin{equation}\tag{DGLS}\label{eq:dgls}
|
||||||
\vec{y}'(t) = A \vec{y}(t)
|
\vec{u}'(t) = A \vec{u}(t)
|
||||||
\end{equation}
|
\end{equation}
|
||||||
schreiben, wobei $\vec{y}(t) = \begin{pmatrix} y_1(t)\\ \vdots\\ y_n(t) \end{pmatrix}, \vec{y}'(t) = \begin{pmatrix} y'_1(t)\\ \vdots\\ y'_n(t) \end{pmatrix}$
|
schreiben, wobei $\vec{u}(t) = \begin{pmatrix} u_1(t)\\ \vdots\\ u_n(t) \end{pmatrix}, \vec{u}'(t) = \begin{pmatrix} u'_1(t)\\ \vdots\\ u'_n(t) \end{pmatrix}$
|
||||||
und $A \in \RR^{n \times n}$
|
und $A \in \RR^{n \times n}$
|
||||||
\end{definition}
|
\end{definition}
|
||||||
|
|
||||||
\begin{definition}
|
\begin{definition}
|
||||||
Ein~\ref{eq:dgls} zusammen mit einer Anfangsbedingung
|
Ein~\ref{eq:dgls} zusammen mit einer Anfangsbedingung
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
\vec{y}(t_0) = \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix} \in \RR^n
|
\vec{u}_0 \coloneqq \vec{u}(t_0) = \begin{pmatrix} u_{1_0}\\ \vdots\\ u_{n_0} \end{pmatrix} \in \RR^n
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
an einer Stelle $t_0 \in \RR$ nennt man ein \emph{C\textc{auchy}-Problem} oder \emph{Anfangswertproblem}.
|
an einer Stelle $t_0 \in \RR$ nennt man ein \emph{C\textc{auchy}-Problem} oder \emph{Anfangswertproblem}.
|
||||||
\end{definition}
|
\end{definition}
|
||||||
|
|
||||||
\begin{lemma}\label{thm:matrixexp-derivative}
|
\begin{lemma}[Produktregel]\label{thm:matrixexp-derivative}
|
||||||
Sei $\vec{y}: \RR \to \RR^{n}$ eine vektorwertige Funktion und $A$ eine konstante Matrix.
|
Sei $\vec{u}: \RR \to \RR^{n}$ eine differenzierbare vektorwertige Funktion und $A \in \RR^{n \times n}$ eine konstante Matrix.
|
||||||
Dann gilt
|
Dann gilt
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
\dfdx{}{t} \left( \e^{t A} \vec{y}(t) \right) = \e^{t A} \dfdx{\vec{y}(t)}{t} + A \e^{t A} \vec{y}(t).
|
\dfdx{}{t} \left( \e^{t A} \vec{u}(t) \right) = \e^{t A} \dfdx{\vec{u}(t)}{t} + A \e^{t A} \vec{u}(t).
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
\end{lemma}
|
\end{lemma}
|
||||||
|
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
% TODO: komponentenweise
|
Das Ergebnis von $\e^{t A} \in \RR^{n \times n}$ ist eine Matrix.
|
||||||
|
Demnach ist $\e^{t A} \vec{u}(t) \in \RR^{n \times 1}$ ein Matrix-Vektor-Produkt, deren Komponenten sich durch
|
||||||
|
\begin{equation*}
|
||||||
|
(\e^{t A} \vec{u}(t))_i = \sum^n_{j=1} \left( \e^{t A} \right)_{ij} \cdot u_j(t)
|
||||||
|
\end{equation*}
|
||||||
|
ergeben.
|
||||||
|
Differenzieren der Komponenten, zusammen mit Linearität des Differentialoperators und der üblichen Produktregel, liefert
|
||||||
|
\begin{align*}
|
||||||
|
\dfdx{}{t}(\e^{t A} \vec{u}(t))_i
|
||||||
|
&= \dfdx{}{t} \left( \sum^n_{j=1} \left( \e^{t A} \right)_{ij} \cdot u_j(t) \right)
|
||||||
|
= \sum^n_{j=1} \left( \left( \e^{t A} \right)_{ij} \cdot \dfdx{u_j(t)}{t} + \dfdx{\left( \e^{t A} \right)_{ij}}{t} \cdot u_j(t) \right)\\
|
||||||
|
&= \sum^n_{j=1} \left( \left( \e^{t A} \right)_{ij} \cdot \dfdx{u_j(t)}{t} \right)
|
||||||
|
+ \sum^n_{j=1} \left( \dfdx{\left( \e^{t A} \right)_{ij}}{t} \cdot u_j(t) \right).
|
||||||
|
\end{align*}
|
||||||
|
Das ist ganzheitlich betrachtet gerade
|
||||||
|
\begin{equation*}
|
||||||
|
\dfdx{}{t} \left( \e^{t A} \vec{u}(t) \right) = \e^{t A} \dfdx{\vec{u}(t)}{t} + \dfdx{\e^{t A}}{t} \vec{u}(t)
|
||||||
|
= \e^{t A} \dfdx{\vec{u}(t)}{t} + A \e^{t A} \vec{u}(t).
|
||||||
|
\end{equation*}
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{corollary}\label{thm:matrixexp-derivative-corollary}
|
\begin{remark*}
|
||||||
Sei $\vec{y}_0 \in \RR^n$ konstant.
|
Die Produktregel gilt allgemein auch für das Differenzieren von Matrizenprodukten.
|
||||||
|
Seien $M$ und $N$ Matrizen, deren Komponenten Funktionen von $t$ sind.
|
||||||
Dann gilt
|
Dann gilt
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
\dfdx{}{t} \left( \e^{t A} \vec{y}_0 \right) = A \e^{t A} \vec{y}_0.
|
\dfdx{}{t}(M(t) N(t)) = M(t) \dfdx{N(t)}{t} + \dfdx{M(t)}{t} N(t).
|
||||||
|
\end{equation*}
|
||||||
|
\end{remark*}
|
||||||
|
|
||||||
|
\begin{corollary}\label{thm:matrixexp-derivative-corollary}
|
||||||
|
Sei $\vec{u}_0 \in \RR^n$ konstant und $A \in \RR^{n \times n}$.
|
||||||
|
Dann gilt
|
||||||
|
\begin{equation*}
|
||||||
|
\dfdx{}{t} \left( \e^{(t - t_0) A} \vec{u}_0 \right) = A \e^{(t - t_0) A} \vec{u}_0.
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
\end{corollary}
|
\end{corollary}
|
||||||
|
|
||||||
|
\begin{lemma}\label{thm:matrixexp-commute}
|
||||||
|
Seien $A,B$ Matrizen und für diese gelte $AB = BA$.
|
||||||
|
Dann gilt
|
||||||
|
\begin{equation*}
|
||||||
|
\e^A B = B \e^A.
|
||||||
|
\end{equation*}
|
||||||
|
\end{lemma}
|
||||||
|
|
||||||
|
\begin{proof}
|
||||||
|
\begin{equation*}
|
||||||
|
\e^A B = \left( \sum^\infty_{k=0} \frac{A^k}{k!} \right) B
|
||||||
|
= \sum^\infty_{k=0} \frac{A^k B}{k!}
|
||||||
|
= \sum^\infty_{k=0} \frac{B A^k}{k!}
|
||||||
|
= B \left( \sum^\infty_{k=0} \frac{A^k}{k!} \right)
|
||||||
|
\end{equation*}
|
||||||
|
\end{proof}
|
||||||
|
|
||||||
\begin{theorem}[Existenz und Eindeutigkeit]\label{thm:existenz-eindeutigkeit}
|
\begin{theorem}[Existenz und Eindeutigkeit]\label{thm:existenz-eindeutigkeit}
|
||||||
Vorgelegt sei ein C\textc{auchy}-Problem
|
Vorgelegt sei ein C\textc{auchy}-Problem
|
||||||
\begin{equation}\tag{CP}\label{eq:cp}
|
\begin{equation}\tag{CP}\label{eq:cp}
|
||||||
\vec{y}'(t) = A \vec{y}(t), \qquad \vec{y}(t_0) = \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix}.
|
\vec{u}'(t) = A \vec{u}(t), \qquad \vec{u}_0 \coloneqq \vec{u}(t_0) = \begin{pmatrix} u_{1_0}\\ \vdots\\ u_{n_0} \end{pmatrix}.
|
||||||
\end{equation}
|
\end{equation}
|
||||||
Dann besitzt~\eqref{eq:cp} eine eindeutig bestimmte Lösung $\vec{y}$ auf $\RR$ mit der Form
|
Dann besitzt~\eqref{eq:cp} eine eindeutig bestimmte Lösung $\vec{u}$ auf $\RR$ mit der Form
|
||||||
\begin{equation}\tag{$\ast$}\label{eq:solution}
|
\begin{equation}\tag{$\ast$}\label{eq:solution}
|
||||||
\vec{y}(t) = e^{(t - t_0) A} \vec{y}_0.
|
\vec{u}(t) = \e^{(t - t_0) A} \vec{u}_0.
|
||||||
\end{equation}
|
\end{equation}
|
||||||
\end{theorem}
|
\end{theorem}
|
||||||
|
|
||||||
@ -62,17 +106,38 @@
|
|||||||
\item \underline{Existenz:}\\
|
\item \underline{Existenz:}\\
|
||||||
Einsetzen von~\eqref{eq:solution} in die rechte Seite von~\eqref{eq:cp} liefert
|
Einsetzen von~\eqref{eq:solution} in die rechte Seite von~\eqref{eq:cp} liefert
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
A \vec{y}(t) = A e^{(t - t_0) A} \vec{y}_0.
|
A \vec{u}(t) = A \e^{(t - t_0) A} \vec{u}_0.
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
Zusammen mit~\hyperref[thm:matrixexp-derivative]{Lemma~\ref*{thm:matrixexp-derivative}}
|
Zusammen mit~\hyperref[thm:matrixexp-derivative-corollary]{Folgerung~\ref*{thm:matrixexp-derivative-corollary}}
|
||||||
bzw.~\hyperref[thm:matrixexp-derivative-corollary]{Folgerung~\ref*{thm:matrixexp-derivative-corollary}}
|
|
||||||
folgt direkt, dass~\eqref{eq:solution} das C\textc{auchy}-Problem löst.
|
folgt direkt, dass~\eqref{eq:solution} das C\textc{auchy}-Problem löst.
|
||||||
|
|
||||||
\item \underline{Eindeutigkeit:}\\
|
\item \underline{Eindeutigkeit:}\\
|
||||||
Angenommen $\vec{u}(t)$ sei eine weitere Lösung, d.h.~es gilt $\vec{u}' = A \vec{u},\ \vec{u}(t_0) = \vec{y}_0$.
|
Angenommen $\vec{v}(t)$ sei eine weitere Lösung, d.h.~es gilt $\vec{v}' = A \vec{v},\ \vec{v}(t_0) = \vec{u}_0$.
|
||||||
Dann ist
|
Dann ist
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
\dfdx{}{x} \left( \text{tbc.} \right)
|
\dfdx{}{t} \left( \e^{-(t - t_0) A} \vec{v}(t) \right)
|
||||||
|
\overset{\hyperref[thm:matrixexp-derivative]{\text{L\ref*{thm:matrixexp-derivative}}}}&{=}
|
||||||
|
\e^{-(t - t_0) A} \dfdx{\vec{v}(t)}{t} - A \e^{-(t - t_0) A} \vec{v}(t)\\
|
||||||
|
\overset{\hyperref[thm:matrixexp-commute]{\text{L\ref*{thm:matrixexp-commute}}}}&{=}
|
||||||
|
\e^{-(t - t_0) A} A \vec{v}(t) - \e^{-(t - t_0) A} A \vec{v}(t)\\
|
||||||
|
&= \vec{0}. % TODO: e^{-tA} kommutiert mit A, weil A mit sich selbst kommutiert; Minh? oder selsbt sagen?
|
||||||
\end{align*}
|
\end{align*}
|
||||||
|
Da die Ableitung die Nullmatrix ist, ist $\e^{-(t - t_0) A} \vec{v}(t)$ konstant, d.h.
|
||||||
|
\begin{equation*}
|
||||||
|
\e^{-(t - t_0) A} \vec{v}(t) = \vec{c}.
|
||||||
|
\end{equation*}
|
||||||
|
Die Inverse der Matrixexponentialfunktion existiert immer, weshalb
|
||||||
|
\begin{equation*}
|
||||||
|
\vec{v}(t) = \e^{(t - t_0) A} \vec{c}
|
||||||
|
\end{equation*}
|
||||||
|
folgt.
|
||||||
|
Mit Voraussetzung $\vec{v}(t_0) = \vec{u}_0$ gilt dann für die Konstante $\vec{c}$
|
||||||
|
\begin{equation*}
|
||||||
|
\vec{v}(t_0) = \e^{(t_0 - t_0) A} \vec{c} = E \vec{c} = \vec{c} = \vec{u}_0.
|
||||||
|
\end{equation*}
|
||||||
|
Insgesamt ergibt sich also
|
||||||
|
\begin{equation*}
|
||||||
|
\vec{v}(t) = \e^{(t - t_0) A} \vec{u}_0 = \vec{u}(t)
|
||||||
|
\end{equation*}
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
\end{proof}
|
\end{proof}
|
@ -9,8 +9,8 @@ Zunächst werden diagonale Matrizen
|
|||||||
= \begin{pmatrix}
|
= \begin{pmatrix}
|
||||||
a_1 & & \\
|
a_1 & & \\
|
||||||
& \ddots & \\
|
& \ddots & \\
|
||||||
& & a_3
|
& & a_n
|
||||||
\end{pmatrix}
|
\end{pmatrix} \in \CC^{n \times n}
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
betrachtet.
|
betrachtet.
|
||||||
|
|
||||||
@ -67,7 +67,7 @@ Das Berechnen einer Matrixexponentialfunktion mit einer diagonalisierbaren Matri
|
|||||||
kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Matrizen} zurückgeführt werden.
|
kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Matrizen} zurückgeführt werden.
|
||||||
|
|
||||||
\begin{definition}[Wiederholung]
|
\begin{definition}[Wiederholung]
|
||||||
Eine Matrix $A$ heißt \emph{diagonalisierbar}, falls eine Diagonalmatrix $D$ und eine reguläre Matrix $A$ so existieren, dass
|
Eine Matrix $A \in \CC^{n \times n}$ heißt \emph{diagonalisierbar}, falls eine Diagonalmatrix $D$ und eine reguläre Matrix $S$ so existieren, dass
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
A = S D S^{-1}
|
A = S D S^{-1}
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
@ -87,15 +87,15 @@ kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Mat
|
|||||||
\begin{alignat*}{2}
|
\begin{alignat*}{2}
|
||||||
A^k &= (S B S^{-1})^k &&= \underbrace{(S B S^{-1}) (S B S^{-1}) (S B S^{-1}) \dots (S B S^{-1})}_{k \text{-mal}}\\
|
A^k &= (S B S^{-1})^k &&= \underbrace{(S B S^{-1}) (S B S^{-1}) (S B S^{-1}) \dots (S B S^{-1})}_{k \text{-mal}}\\
|
||||||
&= SB\underbrace{(S^{-1} S)}_{E} B \underbrace{(S^{-1} S)}_{E} \dots \underbrace{(S^{-1} S)}_{E} B S^{-1}
|
&= SB\underbrace{(S^{-1} S)}_{E} B \underbrace{(S^{-1} S)}_{E} \dots \underbrace{(S^{-1} S)}_{E} B S^{-1}
|
||||||
&&= V \underbrace{L \cdots L}_{k \text{-mal}} S^{-1}\\
|
&&= S \underbrace{B \cdots B}_{k \text{-mal}} S^{-1}\\
|
||||||
&= S B^k S^{-1}
|
&= S B^k S^{-1}
|
||||||
\end{alignat*}
|
\end{alignat*}
|
||||||
Damit folgt dann für die Matrixexponentialfunktion
|
Damit folgt dann für die Matrixexponentialfunktion
|
||||||
\begin{alignat*}{2}
|
\begin{alignat*}{2}
|
||||||
\e^{t A} &= \e^{t \cdot S B S^{-1}} &&= \sum^\infty_{k=0} \frac{(t \cdot S B S^{-1})^k}{k!}\\
|
\e^{t A} &= \e^{t \cdot S B S^{-1}} &&= \sum^\infty_{k=0} \frac{(t \cdot S B S^{-1})^k}{k!}\\
|
||||||
&= \sum^\infty_{k=0} \frac{t^k (S B S^{-1})^k}{k!} &&= \sum^\infty_{k=0} \frac{t^k \cdot S B^k S^{-1}}{k!}\\
|
&= \sum^\infty_{k=0} \frac{t^k (S B S^{-1})^k}{k!} &&= \sum^\infty_{k=0} \frac{t^k \cdot S B^k S^{-1}}{k!}\\
|
||||||
&= V \left( \sum^\infty_{k=0} \frac{t^k B^k}{k!} \right) S^{-1} &&= V \left( \sum^\infty_{k=0} \frac{(t B)^k}{k!} \right) S^{-1}\\
|
&= S \left( \sum^\infty_{k=0} \frac{t^k B^k}{k!} \right) S^{-1} &&= S \left( \sum^\infty_{k=0} \frac{(t B)^k}{k!} \right) S^{-1}\\
|
||||||
&= V e^{t B} S^{-1}
|
&= S \e^{t B} S^{-1}
|
||||||
\end{alignat*}
|
\end{alignat*}
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
@ -113,13 +113,13 @@ kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Mat
|
|||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:nichtdiagonalisierbare-matrizen}
|
\subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:nichtdiagonalisierbare-matrizen}
|
||||||
Jede Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = V^{-1} L V$ bringen.
|
Jede quadratische Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = S^{-1} A S$ bringen.
|
||||||
Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form
|
Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form
|
||||||
\begin{gather*}
|
\begin{gather*}
|
||||||
J = \begin{pmatrix}
|
J = \begin{pmatrix}
|
||||||
J_1 & & \\
|
J_1 & & \\
|
||||||
& \ddots & \\
|
& \ddots & \\
|
||||||
& & J_n
|
& & J_k
|
||||||
\end{pmatrix}\\
|
\end{pmatrix}\\
|
||||||
\intertext{mit J\textc{ordan}-Block}
|
\intertext{mit J\textc{ordan}-Block}
|
||||||
J_i = \begin{pmatrix}
|
J_i = \begin{pmatrix}
|
||||||
@ -128,26 +128,26 @@ Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form
|
|||||||
& & \ddots & 1 \\
|
& & \ddots & 1 \\
|
||||||
& & & \lambda_i
|
& & & \lambda_i
|
||||||
\end{pmatrix}
|
\end{pmatrix}
|
||||||
\qquad (i = 1,\dots,n).
|
\qquad (i = 1,\dots,k).
|
||||||
\end{gather*}
|
\end{gather*}
|
||||||
Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten,
|
Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten,
|
||||||
dass die gewonnenen Erkenntnisse aus~\autoref{subsec:diagonalisierbare-matrizen} zur Berechnung der
|
dass die gewonnenen Erkenntnisse aus~\autoref{subsec:diagonalisierbare-matrizen} zur Berechnung der
|
||||||
Matrixexponentialfunktion $\e^{J} = \e^{V J_i V^{-1}}$ anwendbar sein könnten.
|
Matrixexponentialfunktion $\e^{A} = \e^{S J S^{-1}}$ anwendbar sein könnten.
|
||||||
|
|
||||||
\begin{lemma}\label{thm:blockdiag-exp}
|
\begin{lemma}\label{thm:blockdiag-exp}
|
||||||
Sei $A \in \RR^{n \times n}$ eine Blockdiagonalmatrix
|
Sei $A \in \CC^{n \times n}$ eine Blockdiagonalmatrix
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
A = \diag\left\{A_1,\dots,A_m\right\}
|
A = \diag\left\{A_1,\dots,A_k\right\}
|
||||||
= \begin{pmatrix}
|
= \begin{pmatrix}
|
||||||
A_1 & & \\
|
A_1 & & \\
|
||||||
& \ddots & \\
|
& \ddots & \\
|
||||||
& & A_m
|
& & A_k
|
||||||
\end{pmatrix},
|
\end{pmatrix},
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
mit quadratischen Matrizen $A_1, \dots, A_m$.
|
mit quadratischen Matrizen $A_1, \dots, A_k$.
|
||||||
Dann gilt
|
Dann gilt
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
\e^{t A} = \diag\left\{ \e^{t A_1}, \dots,\e^{t A_m} \right\}.
|
\e^{t A} = \diag\left\{ \e^{t A_1}, \dots,\e^{t A_k} \right\}.
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
\end{lemma}
|
\end{lemma}
|
||||||
|
|
||||||
@ -156,8 +156,9 @@ Matrixexponentialfunktion $\e^{J} = \e^{V J_i V^{-1}}$ anwendbar sein könnten.
|
|||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}},
|
Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}},
|
||||||
dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,n$ reduzieren lässt.\\
|
dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,k$ reduzieren lässt.
|
||||||
Ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen zu
|
Dafür werden im Folgenden die J\textc{ordan}-Blöcke $J_i$ betrachtet,
|
||||||
|
denn ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen in
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
J_i = \begin{pmatrix}
|
J_i = \begin{pmatrix}
|
||||||
\lambda_i & 1 & & \\
|
\lambda_i & 1 & & \\
|
||||||
@ -169,26 +170,26 @@ Ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen zu
|
|||||||
\lambda_i & & \\
|
\lambda_i & & \\
|
||||||
& \ddots & \\
|
& \ddots & \\
|
||||||
& & \lambda_i
|
& & \lambda_i
|
||||||
\end{pmatrix}}_{= L_i}
|
\end{pmatrix}}_{= D_i}
|
||||||
+ \underbrace{\begin{pmatrix}
|
+ \underbrace{\begin{pmatrix}
|
||||||
0 & 1 & & \\
|
0 & 1 & & \\
|
||||||
& 0 & \ddots & \\
|
& 0 & \ddots & \\
|
||||||
& & \ddots & 1 \\
|
& & \ddots & 1 \\
|
||||||
& & & 0
|
& & & 0
|
||||||
\end{pmatrix}}_{\eqqcolon N}
|
\end{pmatrix}}_{\eqqcolon N}
|
||||||
= L_i + N.
|
= D_i + N.
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
|
|
||||||
\begin{definition}[Wiederholung]
|
\begin{definition}[Wiederholung]
|
||||||
Eine Matrix $N$ heißt \emph{nilpotent}, falls ein $l \in \NN$ so existiert, dass $N^l = 0$.
|
Eine Matrix $N$ heißt \emph{nilpotent}, falls ein $m \in \NN$ so existiert, dass $N^m = 0$.
|
||||||
\end{definition}
|
\end{definition}
|
||||||
|
|
||||||
\begin{corollary}
|
\begin{corollary}
|
||||||
Die Matrix $N \in \NN^{l \times l}$ aus der Zerlegung $J_i = L_i + N$ ist eine nilpotente Matrix mit $N^l = 0$.
|
Die $(m \times m)$-Matrix $N$ aus der Zerlegung $J_i = D_i + N$ ist eine nilpotente Matrix mit $N^m = 0$.
|
||||||
\end{corollary}
|
\end{corollary}
|
||||||
|
|
||||||
Betrachtet man den Vorgang des Potenzierens von $N$ ausführlicher, erkennt man,
|
Betrachtet man den Vorgang des Potenzierens von $N$ ausführlicher, erkennt man,
|
||||||
dass die Nebendiagonalen auf denen die $1$en stehen \enquote{nach oben-rechts hinaus} geschoben werden:
|
dass die Nebendiagonalen auf denen die $1$en stehen \enquote{nach oben-rechts hinaus} geschoben werden und ab der $m$-ten Potenz die Nullmatrix ist:
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
N = \begin{pmatrix}
|
N = \begin{pmatrix}
|
||||||
0 & 1 & & \\
|
0 & 1 & & \\
|
||||||
@ -204,36 +205,36 @@ dass die Nebendiagonalen auf denen die $1$en stehen \enquote{nach oben-rechts hi
|
|||||||
& & & & 0
|
& & & & 0
|
||||||
\end{pmatrix},
|
\end{pmatrix},
|
||||||
\dots,
|
\dots,
|
||||||
N^{l-1} = \begin{pmatrix}
|
N^{m-1} = \begin{pmatrix}
|
||||||
0 & & 1\\
|
0 & & 1\\
|
||||||
& \ddots & \\
|
& \ddots & \\
|
||||||
& & 0
|
& & 0
|
||||||
\end{pmatrix},
|
\end{pmatrix},
|
||||||
N^l = \mathfrak{0}
|
N^m = \vec{0}
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
|
|
||||||
\begin{lemma}
|
\begin{lemma}
|
||||||
Die Matrizen $L_i$ und $N$ aus der Zerlegung $J_i = L_i + N$ kommutieren bzgl.\ dem Matrixprodukt.
|
Die Matrizen $D_i$ und $N$ aus der Zerlegung $J_i = D_i + N$ kommutieren bzgl.\ der Matrixmultiplikation.
|
||||||
\end{lemma}
|
\end{lemma}
|
||||||
|
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
L_i N = (\lambda_i E) N = \lambda_i (EN) = \lambda_i (NE) = N (\lambda_i E) = N L_i,
|
D_i N = (\lambda_i E) N = \lambda_i (EN) = \lambda_i (NE) = N (\lambda_i E) = N D_i,
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
Damit gilt
|
Damit gilt
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
\e^{t (L_i + N)} = \e^{t L_i + t N} = \e^{t L_i} \e^{t N}.
|
\e^{t (D_i + N)} = \e^{t D_i + t N} = \e^{t D_i} \e^{t N}.
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
|
|
||||||
Da $L_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^{t L}$ bereits aus~\autoref{subsec:diagonale-matrizen} bekannt.
|
Da $D_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^{t D_i}$ bereits aus~\autoref{subsec:diagonale-matrizen} bekannt.
|
||||||
Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^{t N}$,
|
Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^{t N}$,
|
||||||
da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
|
da ab einem $m \in \NN$ gilt, dass $N^m = N^{m+1} = \dots = 0$, d.h.
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
\e^ {tN } &= \sum^\infty_{k=0} \frac{(t N)^k}{k!}
|
\e^ {tN } &= \sum^\infty_{k=0} \frac{(t N)^k}{k!}
|
||||||
= \sum^{l-1}_{k=0} \frac{(t N)^k}{k!}
|
= \sum^{m-1}_{k=0} \frac{(t N)^k}{k!}
|
||||||
= E + t N + \frac{t^2}{2} N^2 + \dots + \frac{t^{l-1}}{(l-1)!} N^{l-1}\\
|
= E + t N + \frac{t^2}{2} N^2 + \dots + \frac{t^{m-1}}{(m-1)!} N^{m-1}\\
|
||||||
&= E + t N + \frac{t^2}{2} \begin{pmatrix}
|
&= E + t N + \frac{t^2}{2} \begin{pmatrix}
|
||||||
0 & 0 & 1 & & \\
|
0 & 0 & 1 & & \\
|
||||||
& \ddots & \ddots & \ddots & \\
|
& \ddots & \ddots & \ddots & \\
|
||||||
@ -241,14 +242,14 @@ da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
|
|||||||
& & & \ddots & 0\\
|
& & & \ddots & 0\\
|
||||||
& & & & 0
|
& & & & 0
|
||||||
\end{pmatrix}
|
\end{pmatrix}
|
||||||
+ \dots + \frac{t^{l-1}}{(l-1)!} \begin{pmatrix}
|
+ \dots + \frac{t^{m-1}}{(m-1)!} \begin{pmatrix}
|
||||||
0 & & 1\\
|
0 & & 1\\
|
||||||
& \ddots & \\
|
& \ddots & \\
|
||||||
& & 0
|
& & 0
|
||||||
\end{pmatrix}\\
|
\end{pmatrix}\\
|
||||||
&= \begin{pmatrix}
|
&= \begin{pmatrix}
|
||||||
1 & t & \frac{t^2}{2} & \frac{t^3}{3!} & \dots & \frac{t^{l-1}}{(l-1)!}\\
|
1 & t & \frac{t^2}{2} & \frac{t^3}{3!} & \dots & \frac{t^{m-1}}{(m-1)!}\\
|
||||||
& 1 & t & \frac{t^2}{2} & \dots & \frac{t^{l-2}}{(l-2)!}\\
|
& 1 & t & \frac{t^2}{2} & \dots & \frac{t^{m-2}}{(m-2)!}\\
|
||||||
& & 1 & t & \ddots & \vdots\\
|
& & 1 & t & \ddots & \vdots\\
|
||||||
& & & 1 & \ddots & \frac{t^2}{2}\\
|
& & & 1 & \ddots & \frac{t^2}{2}\\
|
||||||
& & & & \ddots & t\\
|
& & & & \ddots & t\\
|
||||||
@ -257,28 +258,28 @@ da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
|
|||||||
\end{align*}
|
\end{align*}
|
||||||
|
|
||||||
\begin{remark*}
|
\begin{remark*}
|
||||||
Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$
|
Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = S J S^{-1}$
|
||||||
mit J\textc{ordan}-Normalform $J$, gilt also insgesamt
|
mit J\textc{ordan}-Normalform $J$, gilt also insgesamt
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
\vec{y}(t) &= \e^{(t - t_0) A} \vec{y}_0 = \e^{(t - t_0) V L V^{-1}} \vec{y}_0 = V \e^{(t - t_0) J} V^{-1} \vec{y}_0\\
|
\vec{u}(t) &= \e^{(t - t_0) A} \vec{u}_0 = \e^{(t - t_0) S J S^{-1}} \vec{u}_0 = S \e^{(t - t_0) J} S^{-1} \vec{u}_0\\
|
||||||
&= V \begin{pmatrix}
|
&= S \begin{pmatrix}
|
||||||
\e^{(t - t_0) J_1} & & \\
|
\e^{(t - t_0) J_1} & & \\
|
||||||
& \ddots & \\
|
& \ddots & \\
|
||||||
& & \e^{(t - t_0) J_n}
|
& & \e^{(t - t_0) J_k}
|
||||||
\end{pmatrix} V^{-1} \vec{y}_0\\
|
\end{pmatrix} S^{-1} \vec{u}_0\\
|
||||||
&= V \begin{pmatrix}
|
&= S \begin{pmatrix}
|
||||||
\e^{(t - t_0) L_1} \e^{(t - t_0) N} & & \\
|
\e^{(t - t_0) D_1} \e^{(t - t_0) N} & & \\
|
||||||
& \ddots & \\
|
& \ddots & \\
|
||||||
& & \e^{(t - t_0) L_n} \e^{(t - t_0) N}
|
& & \e^{(t - t_0) D_k} \e^{(t - t_0) N}
|
||||||
\end{pmatrix} V^{-1} \vec{y}_0.
|
\end{pmatrix} S^{-1} \vec{u}_0.
|
||||||
\end{align*}
|
\end{align*}
|
||||||
\end{remark*}
|
\end{remark*}
|
||||||
|
|
||||||
\begin{example*}
|
\begin{example*}
|
||||||
Gegeben sei das~\ref{eq:cp}
|
Gegeben sei das~\hyperref[eq:cp]{C\textc{auchy}-Problem}
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
\vec{y}'(t) = \underbrace{\begin{pmatrix} a & 1\\ 0 & a \end{pmatrix}}_{= A} y(t),\ a \in \RR,
|
\vec{u}'(t) = \underbrace{\begin{pmatrix} a & 1\\ 0 & a \end{pmatrix}}_{\eqqcolon A} \vec{u}(t),\ a \in \RR,
|
||||||
\qquad \vec{y}(t_0 = 0) = \vec{y}_0 = \begin{pmatrix}y_1\\ y_2\end{pmatrix}.
|
\qquad \vec{u}_0 \coloneqq \vec{u}(t_0 = 0) = \begin{pmatrix}u_1\\ u_2\end{pmatrix}.
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
$A$ lässt sich zerlegen in eine Diagonalmatrix $D$ und nilpotente Matrix $N$:
|
$A$ lässt sich zerlegen in eine Diagonalmatrix $D$ und nilpotente Matrix $N$:
|
||||||
\begin{equation*}
|
\begin{equation*}
|
||||||
@ -287,13 +288,13 @@ da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h.
|
|||||||
\end{equation*}
|
\end{equation*}
|
||||||
Nach~\hyperref[thm:existenz-eindeutigkeit]{Satz~\ref*{thm:existenz-eindeutigkeit}} und~\autoref{sec:berechnung-matrixexponential} ist die Lösung gegeben durch
|
Nach~\hyperref[thm:existenz-eindeutigkeit]{Satz~\ref*{thm:existenz-eindeutigkeit}} und~\autoref{sec:berechnung-matrixexponential} ist die Lösung gegeben durch
|
||||||
\begin{alignat*}{2}
|
\begin{alignat*}{2}
|
||||||
\vec{y}(t) &= \e^{t A} \vec{y}_0
|
\vec{u}(t) &= \e^{t A} \vec{u}_0
|
||||||
&&= \e^{t (D + N)} \vec{y}_0\\
|
&&= \e^{t (D + N)} \vec{u}_0\\
|
||||||
&= \e^{t D + t N} \vec{y}_0
|
&= \e^{t D + t N} \vec{u}_0
|
||||||
&&= \e^{t D} \e^{t N} \vec{y}_0\\
|
&&= \e^{t D} \e^{t N} \vec{u}_0\\
|
||||||
&= \begin{pmatrix} \e^{t a} & 0\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix} 1 & t\\ 0 & 1 \end{pmatrix} \vec{y}_0
|
&= \begin{pmatrix} \e^{t a} & 0\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix} 1 & t\\ 0 & 1 \end{pmatrix} \vec{u}_0
|
||||||
&&= \begin{pmatrix} \e^{t a} & t \e^{t a}\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix}y_1\\ y_2\end{pmatrix}\\
|
&&= \begin{pmatrix} \e^{t a} & t \e^{t a}\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix}u_1\\ u_2\end{pmatrix}\\
|
||||||
&= \begin{pmatrix} y_1 \e^{t a} + y_2 t \e^{t a}\\ y_2 \e^{t a} \end{pmatrix}
|
&= \begin{pmatrix} u_1 \e^{t a} + u_2 t \e^{t a}\\ u_2 \e^{t a} \end{pmatrix}
|
||||||
&&= \begin{pmatrix} \e^{t a} (y_1 + y_2 t)\\ y_2 \e^{t a} \end{pmatrix}
|
&&= \begin{pmatrix} \e^{t a} (u_1 + u_2 t)\\ u_2 \e^{t a} \end{pmatrix}
|
||||||
\end{alignat*}
|
\end{alignat*}
|
||||||
\end{example*}
|
\end{example*}
|
Loading…
x
Reference in New Issue
Block a user