From fe9e1522558e5ea9f422b473ecbaf4a8a36bf154 Mon Sep 17 00:00:00 2001 From: Niklas Birk Date: Thu, 1 Jun 2023 21:14:21 +0200 Subject: [PATCH] Almost finish --- proseminar.sty | 3 +- sections/01_ldgls_matrixexponential.tex | 84 +++++++++++++++----- sections/02_berechnung_matrixexponential.tex | 37 ++++----- 3 files changed, 85 insertions(+), 39 deletions(-) diff --git a/proseminar.sty b/proseminar.sty index 1a5a1b0..4b5fdc0 100644 --- a/proseminar.sty +++ b/proseminar.sty @@ -14,11 +14,12 @@ \RequirePackage[hyperref,style=authoryear]{biblatex} % math packages -\RequirePackage{amsmath} % general math +\RequirePackage{amsmath} % general math \RequirePackage{amsthm} % theorems \RequirePackage{amssymb} % math symbols \RequirePackage{mathtools} % coloneqq: nice ligatures of := and =: \RequirePackage{stmaryrd} % lightning symbol +\RequirePackage{aligned-overset} % proper alignment with oversets % other packages \RequirePackage{enumerate} % for alphanumeric enumeration: (i), (ii), ... diff --git a/sections/01_ldgls_matrixexponential.tex b/sections/01_ldgls_matrixexponential.tex index 2e90759..6bd5c40 100644 --- a/sections/01_ldgls_matrixexponential.tex +++ b/sections/01_ldgls_matrixexponential.tex @@ -1,59 +1,90 @@ \begin{definition} - Seien $y_1,\dots,y_n: \RR \to \RR$ differenzierbar und $a_{jk} \in \RR$ für $j,k = 1,\dots,n$. + Seien $u_1,\dots,u_n: \RR \to \RR$ differenzierbar und $a_{jk} \in \RR$ für $j,k = 1,\dots,n$. Dann heißt \begin{equation*} \begin{aligned} - y'_1(t) &= a_{11} y_1(t) + \dots + a_{1n} y_n(t)\\ - y'_2(t) &= a_{21} y_1(t) + \dots + a_{2n} y_n(t)\\ + u'_1(t) &= a_{11} u_1(t) + \dots + a_{1n} u_n(t)\\ + u'_2(t) &= a_{21} u_1(t) + \dots + a_{2n} u_n(t)\\ &\vdots\\ - y'_n(t) &= a_{n1} y_1(t) + \dots + a_{nn} y_n(t) + u'_n(t) &= a_{n1} u_1(t) + \dots + a_{nn} u_n(t) \end{aligned} \end{equation*} ein \emph{homogenes lineares Differentialgleichungssystem} (DGLS) (1. Ordnung).\\ Das obige System lässt sich auch kompakt in der Form \begin{equation}\tag{DGLS}\label{eq:dgls} - \vec{y}'(t) = A \vec{y}(t) + \vec{u}'(t) = A \vec{u}(t) \end{equation} - schreiben, wobei $\vec{y}(t) = \begin{pmatrix} y_1(t)\\ \vdots\\ y_n(t) \end{pmatrix}, \vec{y}'(t) = \begin{pmatrix} y'_1(t)\\ \vdots\\ y'_n(t) \end{pmatrix}$ + schreiben, wobei $\vec{u}(t) = \begin{pmatrix} u_1(t)\\ \vdots\\ u_n(t) \end{pmatrix}, \vec{u}'(t) = \begin{pmatrix} u'_1(t)\\ \vdots\\ u'_n(t) \end{pmatrix}$ und $A \in \RR^{n \times n}$ \end{definition} \begin{definition} Ein~\ref{eq:dgls} zusammen mit einer Anfangsbedingung \begin{equation*} - \vec{y}(t_0) = \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix} \in \RR^n + \vec{u}_0 \coloneqq \vec{u}(t_0) = \begin{pmatrix} u_{1_0}\\ \vdots\\ u_{n_0} \end{pmatrix} \in \RR^n \end{equation*} an einer Stelle $t_0 \in \RR$ nennt man ein \emph{C\textc{auchy}-Problem} oder \emph{Anfangswertproblem}. \end{definition} -\begin{lemma}\label{thm:matrixexp-derivative} - Sei $\vec{y}: \RR \to \RR^{n}$ eine vektorwertige Funktion und $A$ eine konstante Matrix. +\begin{lemma}[Produktregel]\label{thm:matrixexp-derivative} + Sei $\vec{u}: \RR \to \RR^{n}$ eine differenzierbare vektorwertige Funktion und $A \in \RR^{n \times n}$ eine konstante Matrix. Dann gilt \begin{equation*} - \dfdx{}{t} \left( \e^{t A} \vec{y}(t) \right) = \e^{t A} \dfdx{\vec{y}(t)}{t} + A \e^{t A} \vec{y}(t). + \dfdx{}{t} \left( \e^{t A} \vec{u}(t) \right) = \e^{t A} \dfdx{\vec{u}(t)}{t} + A \e^{t A} \vec{u}(t). \end{equation*} \end{lemma} \begin{proof} - % TODO: komponentenweise + Das Ergebnis von $\e^{t A} \in \RR^{n \times n}$ ist eine Matrix. + Demnach ist $\e^{t A} \vec{u}(t) \in \RR^{n \times 1}$ ein Matrix-Vektor-Produkt, deren Komponenten sich durch + \begin{equation*} + (\e^{t A} \vec{u}(t))_i = \sum^n_{j=1} \e^{t A}_{ij} \cdot u_j(t) + \end{equation*} + ergeben. + Differenzieren der Komponenten, zusammen mit Linearität des Differentialoperators und der üblichen Produktregel, liefert + \begin{align*} + \dfdx{}{t}(\e^{t A} \vec{u}(t))_i + &= \dfdx{}{t} \left( \sum^n_{j=1} \e^{t A}_{ij} \cdot u_j(t) \right)\\ + &= \dfdx{}{t} \left( \e^{t A}_{i1} \cdot u_j(t) + \dots + \e^{t A}_{in} \cdot u_j(t) \right)\\ + &= \dfdx{}{t} \left( \e^{t A}_{i1} \cdot u_j(t) \right) + \dots + \dfdx{}{t} \left( \e^{t A}_{in} \cdot u_j(t) \right)\\ + &= \left( \e^{t A}_{i1} \cdot \dfdx{u_j(t)}{t} + \dfdx{\e^{t A}_{i1}}{t} \cdot u_j(t) \right) + + \dots + \left( \e^{t A}_{in} \cdot \dfdx{u_j(t)}{t} + \dfdx{\e^{t A}_{in}}{t} \cdot u_j(t) \right)\\ + &= \sum^n_{j=1} \left( \e^{t A}_{ij} \cdot \dfdx{u_j(t)}{t} + \dfdx{\e^{t A}_{ij}}{t} \cdot u_j(t) \right)\\ + &= \sum^n_{j=1} \left( \e^{t A}_{ij} \cdot \dfdx{u_j(t)}{t} \right) + + \sum^n_{j=1} \left( \dfdx{\e^{t A}_{ij}}{t} \cdot u_j(t) \right). + \end{align*} + Das ist ganzheitlich betrachtet gerade + \begin{equation*} + \dfdx{}{t} \left( \e^{t A} \vec{u}(t) \right) = \e^{t A} \dfdx{\vec{u}(t)}{t} + \dfdx{\e^{t A}}{t} \vec{u}(t) + = \e^{t A} \dfdx{\vec{u}(t)}{t} + A \e^{t A} \vec{u}(t). + \end{equation*} \end{proof} -\begin{corollary}\label{thm:matrixexp-derivative-corollary} - Sei $\vec{y}_0 \in \RR^n$ konstant. +\begin{remark*} + Die Produktregel gilt allgemein auch für das Differenzieren von Matrizenprodukten. + Seien $M$ und $N$ Matrizen, deren Komponenten Funktionen von $t$ sind. Dann gilt \begin{equation*} - \dfdx{}{t} \left( \e^{t A} \vec{y}_0 \right) = A \e^{t A} \vec{y}_0. + \dfdx{}{t}(M(t) N(t)) = M(t) \dfdx{N(t)}{t} + \dfdx{M(t)}{t} N(t). + \end{equation*} +\end{remark*} + +\begin{corollary}\label{thm:matrixexp-derivative-corollary} + Sei $\vec{u}_0 \in \RR^n$ konstant und $A \in \RR^{n \times n}$. + Dann gilt + \begin{equation*} + \dfdx{}{t} \left( \e^{(t - t_0) A} \vec{u}_0 \right) = A \e^{(t - t_0) A} \vec{u}_0. \end{equation*} \end{corollary} \begin{theorem}[Existenz und Eindeutigkeit]\label{thm:existenz-eindeutigkeit} Vorgelegt sei ein C\textc{auchy}-Problem \begin{equation}\tag{CP}\label{eq:cp} - \vec{y}'(t) = A \vec{y}(t), \qquad \vec{y}(t_0) = \vec{y}_0 \coloneqq \begin{pmatrix} y_{1_0}\\ \vdots\\ y_{n_0} \end{pmatrix}. + \vec{u}'(t) = A \vec{u}(t), \qquad \vec{u}_0 \coloneqq \vec{u}(t_0) = \begin{pmatrix} u_{1_0}\\ \vdots\\ u_{n_0} \end{pmatrix}. \end{equation} - Dann besitzt~\eqref{eq:cp} eine eindeutig bestimmte Lösung $\vec{y}$ auf $\RR$ mit der Form + Dann besitzt~\eqref{eq:cp} eine eindeutig bestimmte Lösung $\vec{u}$ auf $\RR$ mit der Form \begin{equation}\tag{$\ast$}\label{eq:solution} - \vec{y}(t) = e^{(t - t_0) A} \vec{y}_0. + \vec{u}(t) = \e^{(t - t_0) A} \vec{u}_0. \end{equation} \end{theorem} @@ -62,17 +93,30 @@ \item \underline{Existenz:}\\ Einsetzen von~\eqref{eq:solution} in die rechte Seite von~\eqref{eq:cp} liefert \begin{equation*} - A \vec{y}(t) = A e^{(t - t_0) A} \vec{y}_0. + A \vec{u}(t) = A \e^{(t - t_0) A} \vec{u}_0. \end{equation*} Zusammen mit~\hyperref[thm:matrixexp-derivative]{Lemma~\ref*{thm:matrixexp-derivative}} bzw.~\hyperref[thm:matrixexp-derivative-corollary]{Folgerung~\ref*{thm:matrixexp-derivative-corollary}} folgt direkt, dass~\eqref{eq:solution} das C\textc{auchy}-Problem löst. \item \underline{Eindeutigkeit:}\\ - Angenommen $\vec{u}(t)$ sei eine weitere Lösung, d.h.~es gilt $\vec{u}' = A \vec{u},\ \vec{u}(t_0) = \vec{y}_0$. + Angenommen $\vec{v}(t)$ sei eine weitere Lösung, d.h.~es gilt $\vec{v}' = A \vec{v},\ \vec{v}(t_0) = \vec{u}_0$. Dann ist \begin{align*} - \dfdx{}{x} \left( \text{tbc.} \right) + \dfdx{}{t} \left( \e^{-(t - t_0) A} \vec{v}(t) \right) + \overset{\ref{thm:matrixexp-derivative}}&{=} \e^{-(t - t_0) A} \dfdx{\vec{v}(t)}{t} - A \e^{-(t - t_0) A} \vec{v}(t)\\ + &= \e^{-(t - t_0) A} A \vec{v}(t) - \e^{-(t - t_0) A} A \vec{v}(t)\\ + &= \vec{0} \end{align*} + Da die Ableitung die Nullmatrix ist, ist $\e^{-(t - t_0) A} \vec{v}(t)$ konstant, d.h. + \begin{equation*} + \e^{-(t - t_0) A} \vec{v}(t) = \vec{c}. + \end{equation*} + Die Inverse der Matrixexponentialfunktion existiert immer, weshalb + \begin{equation*} + \vec{v}(t) = \e^{(t - t_0) A} \vec{c} + \end{equation*} + folgt.\\\\ + tbc. \end{itemize} \end{proof} \ No newline at end of file diff --git a/sections/02_berechnung_matrixexponential.tex b/sections/02_berechnung_matrixexponential.tex index 9b570aa..934efd9 100644 --- a/sections/02_berechnung_matrixexponential.tex +++ b/sections/02_berechnung_matrixexponential.tex @@ -95,7 +95,7 @@ kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Mat \e^{t A} &= \e^{t \cdot S B S^{-1}} &&= \sum^\infty_{k=0} \frac{(t \cdot S B S^{-1})^k}{k!}\\ &= \sum^\infty_{k=0} \frac{t^k (S B S^{-1})^k}{k!} &&= \sum^\infty_{k=0} \frac{t^k \cdot S B^k S^{-1}}{k!}\\ &= V \left( \sum^\infty_{k=0} \frac{t^k B^k}{k!} \right) S^{-1} &&= V \left( \sum^\infty_{k=0} \frac{(t B)^k}{k!} \right) S^{-1}\\ - &= V e^{t B} S^{-1} + &= V \e^{t B} S^{-1} \end{alignat*} \end{proof} @@ -113,7 +113,7 @@ kann auf den obigen Fall der~\hyperref[subsec:diagonale-matrizen]{diagonalen Mat \end{proof} \subsection{Nicht-diagonalisierbare Matrizen}\label{subsec:nichtdiagonalisierbare-matrizen} -Jede Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = V^{-1} L V$ bringen. +Jede quadratische Matrix $A$ lässt sich auf eine \emph{J\textc{ordan}-Normalform} $J = V^{-1} A V$ bringen. Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form \begin{gather*} J = \begin{pmatrix} @@ -132,7 +132,7 @@ Eine J\textc{ordan}-Normalform $J$ ist eine Blockdiagonalmatrix der Form \end{gather*} Das folgende \hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}} lässt vermuten, dass die gewonnenen Erkenntnisse aus~\autoref{subsec:diagonalisierbare-matrizen} zur Berechnung der -Matrixexponentialfunktion $\e^{J} = \e^{V J_i V^{-1}}$ anwendbar sein könnten. +Matrixexponentialfunktion $\e^{A} = \e^{V J V^{-1}}$ anwendbar sein könnten. \begin{lemma}\label{thm:blockdiag-exp} Sei $A \in \RR^{n \times n}$ eine Blockdiagonalmatrix @@ -156,8 +156,9 @@ Matrixexponentialfunktion $\e^{J} = \e^{V J_i V^{-1}}$ anwendbar sein könnten. \end{proof} Zudem zeigt~\hyperref[thm:blockdiag-exp]{Lemma~\ref*{thm:blockdiag-exp}}, -dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,n$ reduzieren lässt.\\ -Ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen zu +dass sich die Berechnung von $\e^J$ auf die einzelnen $\e^{J_i}$ für $i = 1,\dots,n$ reduzieren lässt. +Dafür werden im Folgenden die J\textc{ordan}-Blöcke $J_i$ betrachtet, +denn ein J\textc{ordan}-Block $J_i$ lässt sich weiter zerlegen in \begin{equation*} J_i = \begin{pmatrix} \lambda_i & 1 & & \\ @@ -209,11 +210,11 @@ dass die Nebendiagonalen auf denen die $1$en stehen \enquote{nach oben-rechts hi & \ddots & \\ & & 0 \end{pmatrix}, - N^l = \mathfrak{0} + N^l = \vec{0}_l \end{equation*} \begin{lemma} - Die Matrizen $L_i$ und $N$ aus der Zerlegung $J_i = L_i + N$ kommutieren bzgl.\ dem Matrixprodukt. + Die Matrizen $L_i$ und $N$ aus der Zerlegung $J_i = L_i + N$ kommutieren bzgl.\ der Matrixmultiplikation. \end{lemma} \begin{proof} @@ -227,7 +228,7 @@ Damit gilt \e^{t (L_i + N)} = \e^{t L_i + t N} = \e^{t L_i} \e^{t N}. \end{equation*} -Da $L_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^{t L}$ bereits aus~\autoref{subsec:diagonale-matrizen} bekannt. +Da $L_i$ eine Diagonalmatrix ist, ist die Lösung von $\e^{t L_i}$ bereits aus~\autoref{subsec:diagonale-matrizen} bekannt. Für $N$ als nilpotente Matrix ergibt sich zudem eine endliche Summe bei der Berechnung von $\e^{t N}$, da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h. \begin{align*} @@ -260,25 +261,25 @@ da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h. Für die Lösung eines~\hyperref[eq:cp]{C\textc{auchy}-Problems} mit einer nicht-diagonalisierbaren Matrix $A = V J V^{-1}$ mit J\textc{ordan}-Normalform $J$, gilt also insgesamt \begin{align*} - \vec{y}(t) &= \e^{(t - t_0) A} \vec{y}_0 = \e^{(t - t_0) V L V^{-1}} \vec{y}_0 = V \e^{(t - t_0) J} V^{-1} \vec{y}_0\\ + \vec{u}(t) &= \e^{(t - t_0) A} \vec{u}_0 = \e^{(t - t_0) V L V^{-1}} \vec{u}_0 = V \e^{(t - t_0) J} V^{-1} \vec{u}_0\\ &= V \begin{pmatrix} \e^{(t - t_0) J_1} & & \\ & \ddots & \\ & & \e^{(t - t_0) J_n} - \end{pmatrix} V^{-1} \vec{y}_0\\ + \end{pmatrix} V^{-1} \vec{u}_0\\ &= V \begin{pmatrix} \e^{(t - t_0) L_1} \e^{(t - t_0) N} & & \\ & \ddots & \\ & & \e^{(t - t_0) L_n} \e^{(t - t_0) N} - \end{pmatrix} V^{-1} \vec{y}_0. + \end{pmatrix} V^{-1} \vec{u}_0. \end{align*} \end{remark*} \begin{example*} Gegeben sei das~\ref{eq:cp} \begin{equation*} - \vec{y}'(t) = \underbrace{\begin{pmatrix} a & 1\\ 0 & a \end{pmatrix}}_{= A} y(t),\ a \in \RR, - \qquad \vec{y}(t_0 = 0) = \vec{y}_0 = \begin{pmatrix}y_1\\ y_2\end{pmatrix}. + \vec{u}'(t) = \underbrace{\begin{pmatrix} a & 1\\ 0 & a \end{pmatrix}}_{= A} y(t),\ a \in \RR, + \qquad \vec{u}(t_0 = 0) = \vec{u}_0 = \begin{pmatrix}y_1\\ y_2\end{pmatrix}. \end{equation*} $A$ lässt sich zerlegen in eine Diagonalmatrix $D$ und nilpotente Matrix $N$: \begin{equation*} @@ -287,11 +288,11 @@ da ab einem $l \in \NN$ gilt, dass $N^l = N^{l+1} = \dots = 0$, d.h. \end{equation*} Nach~\hyperref[thm:existenz-eindeutigkeit]{Satz~\ref*{thm:existenz-eindeutigkeit}} und~\autoref{sec:berechnung-matrixexponential} ist die Lösung gegeben durch \begin{alignat*}{2} - \vec{y}(t) &= \e^{t A} \vec{y}_0 - &&= \e^{t (D + N)} \vec{y}_0\\ - &= \e^{t D + t N} \vec{y}_0 - &&= \e^{t D} \e^{t N} \vec{y}_0\\ - &= \begin{pmatrix} \e^{t a} & 0\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix} 1 & t\\ 0 & 1 \end{pmatrix} \vec{y}_0 + \vec{u}(t) &= \e^{t A} \vec{u}_0 + &&= \e^{t (D + N)} \vec{u}_0\\ + &= \e^{t D + t N} \vec{u}_0 + &&= \e^{t D} \e^{t N} \vec{u}_0\\ + &= \begin{pmatrix} \e^{t a} & 0\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix} 1 & t\\ 0 & 1 \end{pmatrix} \vec{u}_0 &&= \begin{pmatrix} \e^{t a} & t \e^{t a}\\ 0 & \e^{t a} \end{pmatrix} \begin{pmatrix}y_1\\ y_2\end{pmatrix}\\ &= \begin{pmatrix} y_1 \e^{t a} + y_2 t \e^{t a}\\ y_2 \e^{t a} \end{pmatrix} &&= \begin{pmatrix} \e^{t a} (y_1 + y_2 t)\\ y_2 \e^{t a} \end{pmatrix}