2023-05-30 19:36:58 +02:00
|
|
|
\begin{definition}
|
2023-06-01 21:14:21 +02:00
|
|
|
Seien $u_1,\dots,u_n: \RR \to \RR$ differenzierbar und $a_{jk} \in \RR$ für $j,k = 1,\dots,n$.
|
2023-05-30 19:36:58 +02:00
|
|
|
Dann heißt
|
|
|
|
\begin{equation*}
|
|
|
|
\begin{aligned}
|
2023-06-01 21:14:21 +02:00
|
|
|
u'_1(t) &= a_{11} u_1(t) + \dots + a_{1n} u_n(t)\\
|
|
|
|
u'_2(t) &= a_{21} u_1(t) + \dots + a_{2n} u_n(t)\\
|
2023-05-30 19:36:58 +02:00
|
|
|
&\vdots\\
|
2023-06-01 21:14:21 +02:00
|
|
|
u'_n(t) &= a_{n1} u_1(t) + \dots + a_{nn} u_n(t)
|
2023-05-30 19:36:58 +02:00
|
|
|
\end{aligned}
|
|
|
|
\end{equation*}
|
|
|
|
ein \emph{homogenes lineares Differentialgleichungssystem} (DGLS) (1. Ordnung).\\
|
|
|
|
Das obige System lässt sich auch kompakt in der Form
|
|
|
|
\begin{equation}\tag{DGLS}\label{eq:dgls}
|
2023-06-01 21:14:21 +02:00
|
|
|
\vec{u}'(t) = A \vec{u}(t)
|
2023-05-30 19:36:58 +02:00
|
|
|
\end{equation}
|
2023-06-01 21:14:21 +02:00
|
|
|
schreiben, wobei $\vec{u}(t) = \begin{pmatrix} u_1(t)\\ \vdots\\ u_n(t) \end{pmatrix}, \vec{u}'(t) = \begin{pmatrix} u'_1(t)\\ \vdots\\ u'_n(t) \end{pmatrix}$
|
2023-05-30 19:36:58 +02:00
|
|
|
und $A \in \RR^{n \times n}$
|
|
|
|
\end{definition}
|
|
|
|
|
|
|
|
\begin{definition}
|
|
|
|
Ein~\ref{eq:dgls} zusammen mit einer Anfangsbedingung
|
|
|
|
\begin{equation*}
|
2023-06-01 21:14:21 +02:00
|
|
|
\vec{u}_0 \coloneqq \vec{u}(t_0) = \begin{pmatrix} u_{1_0}\\ \vdots\\ u_{n_0} \end{pmatrix} \in \RR^n
|
2023-05-30 19:36:58 +02:00
|
|
|
\end{equation*}
|
|
|
|
an einer Stelle $t_0 \in \RR$ nennt man ein \emph{C\textc{auchy}-Problem} oder \emph{Anfangswertproblem}.
|
|
|
|
\end{definition}
|
|
|
|
|
2023-06-01 21:14:21 +02:00
|
|
|
\begin{lemma}[Produktregel]\label{thm:matrixexp-derivative}
|
|
|
|
Sei $\vec{u}: \RR \to \RR^{n}$ eine differenzierbare vektorwertige Funktion und $A \in \RR^{n \times n}$ eine konstante Matrix.
|
2023-05-30 20:03:14 +02:00
|
|
|
Dann gilt
|
|
|
|
\begin{equation*}
|
2023-06-01 21:14:21 +02:00
|
|
|
\dfdx{}{t} \left( \e^{t A} \vec{u}(t) \right) = \e^{t A} \dfdx{\vec{u}(t)}{t} + A \e^{t A} \vec{u}(t).
|
2023-05-30 20:03:14 +02:00
|
|
|
\end{equation*}
|
|
|
|
\end{lemma}
|
|
|
|
|
|
|
|
\begin{proof}
|
2023-06-01 21:14:21 +02:00
|
|
|
Das Ergebnis von $\e^{t A} \in \RR^{n \times n}$ ist eine Matrix.
|
|
|
|
Demnach ist $\e^{t A} \vec{u}(t) \in \RR^{n \times 1}$ ein Matrix-Vektor-Produkt, deren Komponenten sich durch
|
|
|
|
\begin{equation*}
|
|
|
|
(\e^{t A} \vec{u}(t))_i = \sum^n_{j=1} \e^{t A}_{ij} \cdot u_j(t)
|
|
|
|
\end{equation*}
|
|
|
|
ergeben.
|
|
|
|
Differenzieren der Komponenten, zusammen mit Linearität des Differentialoperators und der üblichen Produktregel, liefert
|
|
|
|
\begin{align*}
|
|
|
|
\dfdx{}{t}(\e^{t A} \vec{u}(t))_i
|
|
|
|
&= \dfdx{}{t} \left( \sum^n_{j=1} \e^{t A}_{ij} \cdot u_j(t) \right)\\
|
|
|
|
&= \dfdx{}{t} \left( \e^{t A}_{i1} \cdot u_j(t) + \dots + \e^{t A}_{in} \cdot u_j(t) \right)\\
|
|
|
|
&= \dfdx{}{t} \left( \e^{t A}_{i1} \cdot u_j(t) \right) + \dots + \dfdx{}{t} \left( \e^{t A}_{in} \cdot u_j(t) \right)\\
|
|
|
|
&= \left( \e^{t A}_{i1} \cdot \dfdx{u_j(t)}{t} + \dfdx{\e^{t A}_{i1}}{t} \cdot u_j(t) \right)
|
|
|
|
+ \dots + \left( \e^{t A}_{in} \cdot \dfdx{u_j(t)}{t} + \dfdx{\e^{t A}_{in}}{t} \cdot u_j(t) \right)\\
|
|
|
|
&= \sum^n_{j=1} \left( \e^{t A}_{ij} \cdot \dfdx{u_j(t)}{t} + \dfdx{\e^{t A}_{ij}}{t} \cdot u_j(t) \right)\\
|
|
|
|
&= \sum^n_{j=1} \left( \e^{t A}_{ij} \cdot \dfdx{u_j(t)}{t} \right)
|
|
|
|
+ \sum^n_{j=1} \left( \dfdx{\e^{t A}_{ij}}{t} \cdot u_j(t) \right).
|
|
|
|
\end{align*}
|
|
|
|
Das ist ganzheitlich betrachtet gerade
|
|
|
|
\begin{equation*}
|
|
|
|
\dfdx{}{t} \left( \e^{t A} \vec{u}(t) \right) = \e^{t A} \dfdx{\vec{u}(t)}{t} + \dfdx{\e^{t A}}{t} \vec{u}(t)
|
|
|
|
= \e^{t A} \dfdx{\vec{u}(t)}{t} + A \e^{t A} \vec{u}(t).
|
|
|
|
\end{equation*}
|
2023-05-30 20:03:14 +02:00
|
|
|
\end{proof}
|
|
|
|
|
2023-06-01 21:14:21 +02:00
|
|
|
\begin{remark*}
|
|
|
|
Die Produktregel gilt allgemein auch für das Differenzieren von Matrizenprodukten.
|
|
|
|
Seien $M$ und $N$ Matrizen, deren Komponenten Funktionen von $t$ sind.
|
|
|
|
Dann gilt
|
|
|
|
\begin{equation*}
|
|
|
|
\dfdx{}{t}(M(t) N(t)) = M(t) \dfdx{N(t)}{t} + \dfdx{M(t)}{t} N(t).
|
|
|
|
\end{equation*}
|
|
|
|
\end{remark*}
|
|
|
|
|
2023-05-30 20:03:14 +02:00
|
|
|
\begin{corollary}\label{thm:matrixexp-derivative-corollary}
|
2023-06-01 21:14:21 +02:00
|
|
|
Sei $\vec{u}_0 \in \RR^n$ konstant und $A \in \RR^{n \times n}$.
|
2023-05-30 20:03:14 +02:00
|
|
|
Dann gilt
|
|
|
|
\begin{equation*}
|
2023-06-01 21:14:21 +02:00
|
|
|
\dfdx{}{t} \left( \e^{(t - t_0) A} \vec{u}_0 \right) = A \e^{(t - t_0) A} \vec{u}_0.
|
2023-05-30 20:03:14 +02:00
|
|
|
\end{equation*}
|
|
|
|
\end{corollary}
|
|
|
|
|
2023-05-30 19:36:58 +02:00
|
|
|
\begin{theorem}[Existenz und Eindeutigkeit]\label{thm:existenz-eindeutigkeit}
|
|
|
|
Vorgelegt sei ein C\textc{auchy}-Problem
|
|
|
|
\begin{equation}\tag{CP}\label{eq:cp}
|
2023-06-01 21:14:21 +02:00
|
|
|
\vec{u}'(t) = A \vec{u}(t), \qquad \vec{u}_0 \coloneqq \vec{u}(t_0) = \begin{pmatrix} u_{1_0}\\ \vdots\\ u_{n_0} \end{pmatrix}.
|
2023-05-30 19:36:58 +02:00
|
|
|
\end{equation}
|
2023-06-01 21:14:21 +02:00
|
|
|
Dann besitzt~\eqref{eq:cp} eine eindeutig bestimmte Lösung $\vec{u}$ auf $\RR$ mit der Form
|
2023-05-30 19:36:58 +02:00
|
|
|
\begin{equation}\tag{$\ast$}\label{eq:solution}
|
2023-06-01 21:14:21 +02:00
|
|
|
\vec{u}(t) = \e^{(t - t_0) A} \vec{u}_0.
|
2023-05-30 19:36:58 +02:00
|
|
|
\end{equation}
|
|
|
|
\end{theorem}
|
|
|
|
|
|
|
|
\begin{proof}
|
|
|
|
\begin{itemize}
|
|
|
|
\item \underline{Existenz:}\\
|
|
|
|
Einsetzen von~\eqref{eq:solution} in die rechte Seite von~\eqref{eq:cp} liefert
|
|
|
|
\begin{equation*}
|
2023-06-01 21:14:21 +02:00
|
|
|
A \vec{u}(t) = A \e^{(t - t_0) A} \vec{u}_0.
|
2023-05-30 19:36:58 +02:00
|
|
|
\end{equation*}
|
2023-05-30 20:03:14 +02:00
|
|
|
Zusammen mit~\hyperref[thm:matrixexp-derivative]{Lemma~\ref*{thm:matrixexp-derivative}}
|
|
|
|
bzw.~\hyperref[thm:matrixexp-derivative-corollary]{Folgerung~\ref*{thm:matrixexp-derivative-corollary}}
|
|
|
|
folgt direkt, dass~\eqref{eq:solution} das C\textc{auchy}-Problem löst.
|
2023-05-30 19:36:58 +02:00
|
|
|
|
|
|
|
\item \underline{Eindeutigkeit:}\\
|
2023-06-01 21:14:21 +02:00
|
|
|
Angenommen $\vec{v}(t)$ sei eine weitere Lösung, d.h.~es gilt $\vec{v}' = A \vec{v},\ \vec{v}(t_0) = \vec{u}_0$.
|
2023-05-30 19:36:58 +02:00
|
|
|
Dann ist
|
|
|
|
\begin{align*}
|
2023-06-01 21:14:21 +02:00
|
|
|
\dfdx{}{t} \left( \e^{-(t - t_0) A} \vec{v}(t) \right)
|
|
|
|
\overset{\ref{thm:matrixexp-derivative}}&{=} \e^{-(t - t_0) A} \dfdx{\vec{v}(t)}{t} - A \e^{-(t - t_0) A} \vec{v}(t)\\
|
|
|
|
&= \e^{-(t - t_0) A} A \vec{v}(t) - \e^{-(t - t_0) A} A \vec{v}(t)\\
|
|
|
|
&= \vec{0}
|
2023-05-30 19:36:58 +02:00
|
|
|
\end{align*}
|
2023-06-01 21:14:21 +02:00
|
|
|
Da die Ableitung die Nullmatrix ist, ist $\e^{-(t - t_0) A} \vec{v}(t)$ konstant, d.h.
|
|
|
|
\begin{equation*}
|
|
|
|
\e^{-(t - t_0) A} \vec{v}(t) = \vec{c}.
|
|
|
|
\end{equation*}
|
|
|
|
Die Inverse der Matrixexponentialfunktion existiert immer, weshalb
|
|
|
|
\begin{equation*}
|
|
|
|
\vec{v}(t) = \e^{(t - t_0) A} \vec{c}
|
|
|
|
\end{equation*}
|
|
|
|
folgt.\\\\
|
|
|
|
tbc.
|
2023-05-30 19:36:58 +02:00
|
|
|
\end{itemize}
|
|
|
|
\end{proof}
|