A-Z Navigation
Begriff Erklärung
Abbildung

Eine Abbildung $f$ aus einer Menge $A$ in eine Menge $B$ ist eine Vorschrift, die jedem Element $a$ aus $A$ genau ein Element $b = f (a)$ aus $f (A) \subseteq B$ zuordnet. Dabei nennt man $A = D(f)$ die Definitionsmenge, $f (A)$ ist das Bild, und $B = W(f)$ heißt die Wertemenge.

Arithmetische Summenformel

\begin{equation} \sum_{k=1}^{n} k = \frac{n \left( n + 1 \right)}{2} \end{equation}

Banachraum

Ein normierter Raum in dem jede Cauchy-Folge einen Grenzwert besitzt, heißt vollständig. Einen vollständigen normerten Raum man auch Banachraum.

Besselfunktionen

Für die Besselfunktionen $J_\lambda$ erhalten wir die Reihendarstellung $$J_\lambda (z) = \left(\frac{z}{2}\right)^\lambda \sum_{k=0}^\infty \frac{(-1)^k}{k! \Gamma(1+k+\lambda)} \left(\frac{z}{2}\right)^{2k}$$ für $z\in\mathbb{C}$ und $\lambda \in \mathbb{C}\setminus\mathbb{Z}_{<0}$. Die Funktion kann nach $\lambda\in\mathbb{Z}_{<0}$ holomorph fortgesetzt werden.

Bijektivität

Eine Abbildung $f: A\rightarrow B\,, a\mapsto f(a)$ heißt bijektiv, wenn sie sowohl injektiv als auch surjektiv ist.

Bild

Eine Abbildung $f$ aus einer Menge $A$ in eine Menge $B$ ist eine Vorschrift, die jedem Element $a$ aus $A$ genau ein Element $b = f (a)$ aus $f (A) \subseteq B$ zuordnet. Dabei nennt man $A = D(f)$ die Definitionsmenge, $f (A)$ ist das Bild, und $B = W(f)$ heißt die Wertemenge.

Bild einer linearen Abbildung

Ist $\varphi$ eine lineare Abbildung von einem $\mathbb{K}$-Vektorraum $V$ einen $\mathbb{K}$-Vektorraum $W$, so ist das Bild von $\varphi$ definiert als $$\varphi\left(V \right) := \left\lbrace \varphi(\boldsymbol{v}) \vert \boldsymbol{v}\in V \right\rbrace \subseteq W$$

Binomialkoeffizient

Der Binomialkoeffizient \begin{equation} \begin{pmatrix} n \\ k \end{pmatrix} = \frac{n ! }{k! \left(n-k\right)!} \end{equation} gesprochen "n über k" gibt die Anzahl der Möglichkeiten an, aus einer Menge von $n$ Objekten genau $k$ auszuwählen.

Binomische Formel

Für die Potenzen eines Binoms $(a+b)$ gilt: \begin{equation} (a+b)^n = \sum_{k=0}^n \begin{pmatrix} n \\ k \end{pmatrix} a^{n-k} b^k \end{equation}

Bogenlänge ebener Kurve

Für die Bogenlänge einer stetig differenzierbaren Kurve $\gamma$ mit $\boldsymbol{x} = \boldsymbol{\gamma}(t)$ und $\dot{\boldsymbol{\gamma}}(t) \neq 0$ für alle $t\in I$, erhalten wir im Intervall $\left[t_0, t_1\right]\subseteq I$: $$s\left(t_0, t_1\right) = \int_{t_0}^{t_1} \Vert \dot{\boldsymbol{x}}(t) \Vert \mathrm{d}t = \int_{t_0}^{t_1} \sqrt{\dot{x}^2 + \dot{y}^2} \mathrm{d}t$$

Cauchy-Produkt Konvergenz

Sind die Reihen $\left( \sum_{n=1}^\infty a_n \right)$ und $\left( \sum_{n=1}^\infty b_n \right)$ absolut konvergent, dann konvergiert auch ihr Cauchy-Produkt absolut, und für die Grenzwerte gilt $$\left[\sum_{n=1}^\infty a_n\right]\cdot \left[\sum_{n=1}^\infty b_n\right] = \sum_{n=1}^\infty \sum_{k=1}^{n-1} a_k b_{n-k}$$

Cauchy-Riemann-Gleichungen

Eine komplexe Funktion $f= u+\mathrm{i} v$ ist genau dann in einem Punkt $z = x+\mathrm{i}y\,\in D(f)$ komplex differenzierbar, wenn sie dort reell (als Funktion $\mathbb{R}^2 \rightarrow \mathbb{R}^2$) differenziebar ist und zusätzlich die Cauchy-Riemann-Gleichungen erfüllt sind: $$\frac{\partial u}{\partial x} = \frac{\partial v}{\partial y} \,,\qquad \frac{\partial u}{\partial y} = - \frac{\partial v}{\partial x}$$

Cauchy-Schwarz'sche Ungleichung

Für zwei Vektoren $\boldsymbol{u}, \boldsymbol{v} \in \mathbb{K}^n$ gilt: $$\vert\boldsymbol{u} \cdot \boldsymbol{v}\vert \leq \Vert \boldsymbol{u} \Vert ~ \Vert\boldsymbol{v}\Vert $$ Dabei gilt die Gleichheit genau dann, wenn die Vektoren $\boldsymbol{u}$ und $\boldsymbol{v}$ linear abhängig sind.

Darstellungsmatrix einer linearen Abbildung

Man nennt die Matrix $$~_C \boldsymbol{M}(\varphi)_B := \left( (~_C\varphi(\boldsymbol{b}_q), \dots , ~_C\varphi(\boldsymbol{b}_n) \right)$$ die Darstellungsmatrix von $\varphi$ bezüglich der Basen $B$ und $C$. Die $i$-te Spalte von $~_C\boldsymbol{M}(\varphi)_B$ ist der Koordinatenvektor bezüglich $C$ des Bildes des $i$-ten Basisvektors aus $B$.

Definitionsmenge

Eine Abbildung $f$ aus einer Menge $A$ in eine Menge $B$ ist eine Vorschrift, die jedem Element $a$ aus $A$ genau ein Element $b = f (a)$ aus $f (A) \subseteq B$ zuordnet. Dabei nennt man $A = D(f)$ die Definitionsmenge, $f (A)$ ist das Bild, und $B = W(f)$ heißt die Wertemenge.

Determinante

Gegeben sei eine Matrix $A=(a_{ij})\in\mathbb{K}^{n\times n}$.$$ $$ Für $n=1$, d.h. $A=(a_{11})$, definieren wir $$\det \boldsymbol{A} := a_{11}$$ Für $n\geq 2$ definieren wir \begin{eqnarray} \det\boldsymbol{A} &:=& \sum_{i=1}^n (-1)^{i+1} a_{i1} \det(\boldsymbol{A}_{i1}) \\ &=& a_{11} \det(\boldsymbol{A}_{11}) -+ \dots (-1)^{n+1} a_{n1} \det(\boldsymbol{A}_{n1}) \end{eqnarray}

Diagonalisierbarkeit

Eine Matrix $\boldsymbol{A}\in\mathbb{K}^{n\times n}$ ist genau dann diagonalisierbar, wenn es eine Basis $B$ des $\mathbb{K}^n$ aus Eigenvektoren $\boldsymbol{A}$ gibt. Ist $B=\left( \boldsymbol{b}_1, \dots, \boldsymbol{b}_n \right)$ eine geordnete Basis des $\mathbb{K}^n$ aus Eigenvektoren der Matrix $\boldsymbol{A}$, so ist die Matrix $$\boldsymbol{D} = \boldsymbol{S}^{-1}\boldsymbol{A}\boldsymbol{S}$$ mit $\boldsymbol{S} = \left((\boldsymbol{b}_1, \dots ,\boldsymbol{b}_n) \right)$ eine Diagonalmatrix. Reelle symmetrische und hermitesche Matrizen sind stets diagonalisierbar. Die sie auf Diagonalgestalt transformierenden Matrizen können dabei orthogonal bzw. unitär gewählt werden.

Differenzialgleichungssystem

Unter einem Differenzialgleichungssystem $n$-ter Ordnung versteht man mit $m$ Gleichungen auf einem Intervall $I\subseteq \mathbb{R}$ ($m,n\in\mathbb{N}$) versteht man eine Gleichung der Form $$\boldsymbol{y}^{(n)} (x) = \boldsymbol{F}\left( x, \boldsymbol{y}(x), \boldsymbol{y}'(x), \dots, \boldsymbol{y}^{(n-1)}(x) \right)$$ für alle $x\in I$. Hierbei ist $\boldsymbol{F}: \boldsymbol{I} \times \mathbb{C}^{m\times n} \rightarrow \mathbb{C}^{m}$ gegeben und die Funktion $\boldsymbol{y} : \boldsymbol{I} \rightarrow \mathbb{C}$ gesucht.

Dreibein, begleitend

Die ortsabhängige Orthonormalbasis $\left(\boldsymbol{t}, \boldsymbol{h}, \boldsymbol{b}\right)$ mit $$\boldsymbol{t} = \boldsymbol{\gamma}' \,,\qquad \boldsymbol{h} = \frac{1}{\kappa(s)}\boldsymbol{t}' \,,\qquad \boldsymbol{b} = \boldsymbol{t} \times \boldsymbol{h}$$ heißt begleitendes Dreibein der Kurve $\gamma$

Dreiecksungleichung

Für beliebige $x$ und $y$ gelten die Dreiecksungleichung und die erweiterte Dreiecksungleichung: \begin{eqnarray} \left\vert x + y \right\vert & \leq & \vert x \vert + \vert y \vert \\ \left\vert \vert x \vert - \vert y \vert \right\vert & \leq & \left\vert x - y \right\vert \end{eqnarray}

Einstein'sche Summenkonvention

Tritt in einem Term derselbe Index zweimal auf, einmal oben und einmal unten, so ist über diesen Index zu summieren.

Euler-Gleichung zum Variationsproblem

Ist $g$ zweimal stetig differenzierbar und $\hat{u}\in D$ lokale Extremalfunktion des Funktionals $J$ mit $$J(u) = \int_a^b g\left(u(t), u'(t), t \right) \mathrm{d}t$$ auf dem Zulässigkeitsbereich $$D = \left\lbrace u\in C^1\left([a,b]\right) \vert u(a) = u_a \,, u(b) = u_b \right\rbrace$$ zu vorgegebenen Werten $u_a,u_b\in\mathbb{R}$, dann gilt die Euler-Gleichung $$\frac{\partial g}{\partial u} \left(\hat{u}(t),\hat{u}'(t), t\right) - \frac{\mathrm{d}}{\mathrm{d}t}\frac{\partial g}{\partial u'}\left(\hat{u}(t),\hat{u}'(t), t\right) = 0$$ für alle $t\in[a,b]$.

Exponentialfunktion

Die Exponentialfunktion $\exp: \mathbb{C} \rightarrow \mathbb{C}$ ist für alle $z\in\mathbb{C}$ definiert durch die Potenzreihe $$\exp(z) := \sum_{n=1}^\infty \frac{1}{n!} z^n $$ Man definiert außerdem die allgemeine Potenz der eulerschen Zahl $\mathrm{e}$ durch $\mathrm{e}^z = \exp(z)$ für $z\in\mathbb{C}$.

Extrema, notwendige Bedingung

Ist eine Funktion $f: \mathbb{R}^n \rightarrow \mathbb{R}$ in $\boldsymbol{p}$ differenzierbar und hat dort ein relatives Extremum, so gilt $$\left. \frac{\partial f}{\partial x_i} \right\vert_{\boldsymbol{p}} = 0 \quad\text{ für } i = 1,\dots, n$$

Folge

Eine Folge ist eine Abbildung der natürlichen Zahlen in eine Menge M, die jeder natürlichen Zahl $n\in\mathbb{N}$ ein Element $x_n\in M$ zuordnet.

Fourierpolynom

Das Fourierpolynom $p_n$ vom Grad $n$ zu einer Funktion $f\in L^2(-\pi,\pi)$ ist definiert als $$p_n(x) = \sum_{k=-n}^n c_k \exp(\mathrm{i} k x) \,, \qquad x\in\mathbb{R}$$ mit den Fourierkoeffizienten $$c_k = \frac{1}{2\pi}\int_{-\pi}^{\pi} f(x) \exp(-i k x ) \mathrm{d}x$$ Es ist das eindeutig bestimmte trigonometrische Polynom aus $T_n$, welches $f$ im quadratischen Mittel am besten approximiert.

Fouriertransformation

Zu einer über $\mathbb{R}$ integrierbaren Funktion $x\in L(\mathbb{R})$ ist die Fouriertransformation definiert durch $$\mathcal{F}(x) (s) = \int_{-\infty}^{\infty} \mathrm{e}^{-\mathrm{i}st} x(t) \mathrm{d}t \,,\qquad \text{für } s\in\mathbb{R}$$ fener ist mit dem Schwartz-Raum $ \mathcal{F}x \in S(\mathbb{R})$, und es ist $$x(t) = \frac{1}{2\pi}\int_{-\infty}^{\infty} \mathrm{e}^{\mathrm{i}st} \left(\mathcal{F}x(s)\right)\mathrm{d}s \,,\qquad t\in\mathbb{R}$$

Fundamentalsatz der Algebra

Jedes Polynom $p: \mathbb{C}\rightarrow \mathbb{C}$ vom Grad $n\geq 1$ besitzt mindestens eine Nullstelle.

Funktionen einer Veränderlichen

Eine reellwertige Funktion einer reellen Veränderlichen ist eine Vorschrift $f$, die jeder Zahl $x\in D \subseteq \mathbb{R}$ genau eine Zahl $f(x) \in \mathbb{R}$ zuordnet.

Gammafunktion

Die Ggammafunktion $\Gamma$ ist für beliebige $x\in \mathbb{R}_{>0}$ definiert als $$\Gamma(x) := \int_0^\infty t^{x-1}\mathrm{e}^{-t} \mathrm{d}t$$ und erfüllt die Funktionalgleichunt $$\Gamma(1+x) = x \Gamma(x)$$ Für $n\in\mathbb{N}_0$ gilt $\Gamma(n+1) = n!$

Geometrische Summenformel

\begin{equation}\sum_{k=1}^{n} q^k = \frac{1 - q^{n+1}}{1-q} \,,\quad \text{für } q \neq 1 \end{equation}

Gradient

Der Gradient einer partiell differenzierbaren Funktion $f: \mathbb{R}^n\rightarrow \mathbb{R}$ im Punkt $p$ ist der Vektor der partiellen Ableitungen in diesem Pukt; $$\left.\boldsymbol{\nabla}f \right\vert_p \equiv \left.\textbf{grad} f\right\vert_p := \begin{pmatrix} \left. \frac{\partial f}{\partial x_1}\right\vert_p \\ \vdots \\ \left. \frac{\partial f}{\partial x_n}\right\vert_p \end{pmatrix}$$

Grenzwert einer Folge

Eine Zahl $x\in\mathbb{C}$ heißt Grenzwert einer Folge $\left(x_n\right)^\infty_{n=1}$ in $\mathbb{C}$, wenn es zu jeder Zahl $\varepsilon > 0$ eine natürliche Zahl $N\in\mathbb{N}$ gibt, sodass $$ \vert x_n - x \vert < \varepsilon \qquad \text{für alle } n \geq N$$ gilt. Eine Folge $(x_n)$ in $\mathbb{C}$, die einen Grenzwert hat, heißt konvergent, ansonsten heißt die Folge divergent.

Hauptsatz zwei der Differential- und Integralrechnung

Wenn $F:[a,b] \rightarrow \mathbb{R}$ eine stetige und auf $(a,b)$ stetig differenzierbare Funktion ist mit integrierbarer Ableitung $F'$, d.h. $F'\in L\left( (a,b) \right)$, dann gilt: $$\int_a^b F'(x) \mathrm{d}x = F(b) - F(a)$$

Hilbertraum

Ein Innenproduktraum, der bezüglich der vom Skalarprodukt erzeugten Norm vollständig ist, heißt Hilbertraum.

Injektivität

Eine Abbildung $f: A\rightarrow B\,, a\mapsto f(a)$ heißt injektiv, wenn aus $a_1 = a_2$ auch immer $f(a_1)=f(a_2)$ folgt.

Invertierbarkeit von Matrizen

Für eine Matrix $\boldsymbol{A} \in \mathbb{K}^{n\times n}$ sind die folgenden Aussagen gleichwertig: \begin{eqnarray} &\bullet& \text{Die Matrix } \boldsymbol{A} \text{ ist invertierbar.} \\ &\bullet& \text{Es gilt } \det\boldsymbol{A} \neq 0 \end{eqnarray}

Kartesisches Produkt

Das kartesische Produkt $A \times B$ zweier Mengen $A$ und $B$ ist die Menge aller geordneten Paare $(a,b)$, mit $a\in A$ und $b\in B$ $$A \times B := \left\lbrace (a,b): a\in A , b\in B \right\rbrace $$

Kern einer linearen Abbildung

Ist $\varphi$ eine lineare Abbildung von einem $\mathbb{K}$-Vektorraum $V$ einen $\mathbb{K}$-Vektorraum $W$, so ist der Kern von $\varphi$ definiert als $$\varphi^{-1}\left( \lbrace 0 \rbrace\right) := \left\lbrace \boldsymbol{v}\in V \vert \varphi(\boldsymbol{v}) = \boldsymbol{0} \right\rbrace \subseteq V$$

Kettenregel

Wenn zwei differenzierbare Funktionen $f:D\rightarrow \mathbb{R}$ und $g:f(D) \rightarrow \mathbb{R}$ gegeben sind, so ist die Verkettung der Funktionen differenzierbar und es gilt für $x\in D$ $$\left(g\circ f\right)'(x) = g'\left(f(x)\right) f'(x)$$

Ko- und Kontravariante Basisvektoren

Die kovarianten Basisvektoren des krummlinigen Koordinatensystems $(u_1, u_2, u_3)$ erhält man als Tangentenvektoren der Koordinatenlinien $$\boldsymbol{b}_{u_i} = \frac{\partial \boldsymbol{x}}{\partial u_i}$$ Die kontravarianten Basisvektoren sind die Normalenvektoren auf die Koordinatenflächen, $$\boldsymbol{b}^{u_i} = \textbf{grad}u_i$$

Komplexe Zahl

Ein Ausdruck der Form $a+\mathrm{i}b$ mit $a,b \in \mathbb{R}$ heißt komplexe Zahl. Die Menge der komplexen Zahlen notiert man als $$ \mathbb{C} := \left\lbrace z = a+ \mathrm{i}b \vert a,b\in\mathbb{R} \right\rbrace $$ Die Darstellung $$ z = r \cos\varphi + \mathrm{i} r \sin\varphi$$ einer komplexen Zahl $z$ heißt Polarkoordinatendarstellung. Dabei ist $r$ der Abstand der Zahl vom Ursprung, der sogenannte Betrag der Zahl, und $\varphi$ bezeichnet den Winkel zur reellen Achse, dieser wird Argument genannt.

Krümmung einer ebenen Kurve

Die Krümmung einer mittels $\boldsymbol{\gamma}(t) = \left( x_1(t), x_2(t) \right)^\top$ parametrisierten, zumindest zweimal differenzierbaren Kurve ist durch $$\kappa(t) = \frac{\det\left((\dot{\boldsymbol{x}},\ddot{\boldsymbol{x}})\right)}{\left(\dot{\boldsymbol{x}_1}^2 + \dot{\boldsymbol{x}_2}^2\right)^{3/2}}$$ gegeben. Einen Punkt der Kurve, an dem die Krümmung ein lokales Extremum annimmt, nennen wir Scheitelpunkt.

Krümmung und Torsion

In allgemeiner Parameterisierung erhalten wir für die Krümmung und Torsion einer Raumkurve $\gamma$, $\boldsymbol{x} = \boldsymbol{x}(t)$ $$\kappa = \frac{\Vert \dot{\boldsymbol{x}}\times\ddot{\boldsymbol{x}}\Vert}{\Vert \dot{\boldsymbol{x}}\Vert^3} \,,\qquad \tau = \frac{\det\left(\dot{\boldsymbol{x}}, \ddot{\boldsymbol{x}}, \dddot{\boldsymbol{x}} \right)}{\Vert \dot{\boldsymbol{x}} \times \ddot{\boldsymbol{x}}\Vert^2}$$

Kugelflächenfunktionen

Die komplexen Kugelflächenfunktionen \begin{eqnarray}Y_l^m (\vartheta,\varphi) &:=& (-1)^m \sqrt{\frac{2l+1}{4\pi}\frac{(l-m)!}{(l+m)!}}P_l^m (\cos\vartheta) \mathrm{e}^{\mathrm{i}m\varphi}\\ Y_l^{-m} &:=& (-1)^m \overline{Y_l^m}\end{eqnarray} mit den Legendre-Funktionen $P_l^m$, bilden auf der Einheitskugel ein Orthogonalsystem mit $$\int\int_{S^2} Y_m^k(\vartheta, \varphi) \overline{Y_m^l}(\vartheta,\varphi) \mathrm{d}\Omega = \delta_{mn} \delta_{kl}$$

Kurvenintegral, skalar

Das Kurvenintegral einer skalaren Funktion $\Phi$ über eine Kurve $\gamma$ mit $\boldsymbol{x} = \boldsymbol{\gamma}(t)$ für $t\in[a,b]$ ist definiert als $$\int_\gamma \Phi \mathrm{d}s := \int_a^b \Phi\left(\boldsymbol{x}(t)\right) \Vert \dot{\boldsymbol{x}}(t)\Vert \mathrm{d}t$$

Kurvenintegral, vektoriell

Das Kurvenintegral entlang einer mit $\boldsymbol{\gamma}(t)$ für $t\in[a,b]$ parametrisierten Kurve $\gamma$ über ein Vektorfeld $$\boldsymbol{v}(\boldsymbol{x}) = \left(v_1(\boldsymbol{x}, \dots ,v_n(\boldsymbol{x})\right)^\top$$ ist definiert als $$\int_\gamma \boldsymbol{v} \cdot \mathrm{d} \boldsymbol{s} := \int_a^b \boldsymbol{v}\left( \boldsymbol{x}(t) \right) \cdot \dot{\boldsymbol{x}}(t) \mathrm{d}t$$

L'Hospital'sche Regel

Ist $I=(a,b)$ ein beschränktes Intervall, $x_0\in I$ und $f,g:I\rightarrow\mathbb{R}$ differenzierbare Funktionen mit $\lim_{x\rightarrow x_0} f(x) = \lim_{x\rightarrow x_0} g(x) = 0$ und $g(x) \neq 0, g'(x) \neq 0$ für alle $x\neq x_0$. Dann gilt $$\lim_{x\rightarrow x_0} \frac{f(x)}{g(x)} = \lim_{x\rightarrow x_0} \frac{f'(x)}{g'(x)}$$ falls der Grenzwert auf der rechten Seite existiert. Die selbe Aussage gilt, wenn $I=(a,\infty)$ und der Grenzwert $x\rightarrow \infty$ oder $I=(-\infty, b)$ und der Grenzwert $x\rightarrow -\infty$ betrachtet wird.

Lagrange Multiplikatoren

Wir bezeichnen mit $L=f+\sum_{j=1}^k \lambda_j g_j$ die Lagrange-Funktion zu einem Optimierungsproblem $$\min_{\boldsymbol{x}\in D} f(\boldsymbol{x})$$ mit einer Zielfunktion $f:\mathbb{R}^n\rightarrow\mathbb{R}$ und Nebenbedingungen $$D = \left\lbrace\boldsymbol{x}\in \mathbb{R}^n \vert g_j(\boldsymbol{x})= 0\,, j= 1,\dots,k \right\rbrace$$ Ist $\hat{\boldsymbol{x}}\in D$ ein lokales Minimum der Funktion $f$ auf der Menge $D$ und sind die $k$ Gradienten $$\nabla g_1(\hat{\boldsymbol{x}}), \nabla g_2(\hat{\boldsymbol{x}}),\dots \nabla g_k(\hat{\boldsymbol{x}})$$ an der Stelle $\hat{\boldsymbol{x}}$ linear unabhängig, dann existieren Lagrage'sche Multiplikatoren $\hat{\lambda}_1, \dots, \hat{\lambda}_k \in \mathbb{R}$, sodass die $n+k$ Gleichungen mit \begin{eqnarray} \frac{\partial L}{\partial x_i} (\hat{\boldsymbol{x}}, \hat{\lambda}) &=& 0 \,,\qquad i=1,\dots,n\\ \frac{\partial L}{\partial \lambda_i} (\hat{\boldsymbol{x}}, \hat{\lambda}) &=& 0 \,,\qquad i=1,\dots,k \end{eqnarray} erfüllt sind.

Laplace-Operator

Der Laplace-Operator in $n$ Dimensionen hat in kartesischen Koordinaten die Form $$ \bigtriangleup = div \textbf{grad} = \sum_{k=1}^{n} \frac{\partial^2}{\partial x_k^2}$$

Laplacetransformation

Zu einer Funktion $f:[0, \infty) \rightarrow \mathbb{C}$ ist auf einem Intervall $J\subseteq\mathbb{R}_{\geq 0}$ die Laplacetransformierte definiert als die Funktion $\mathcal{L} f: J \rightarrow \mathbb{C}$, die durch das Parameterintegral $$\mathcal{L} f(s) = \int_0^\infty f(t) \mathrm{e}^{-st} \mathrm{d}t \,,\qquad s\in J$$ gegeben ist, wenn das Integral für $s\in J$ existiert.

Legendre-Funktion

Die Funktionen $$P_n^m (x) = \left(1-x^2\right)^{m/2} \frac{\mathrm{d}^m}{\mathrm{d}x^m} P_n(x)$$ (mit $n\in\mathbb{N}$ und $m\in\mathbb{N}_0$ für $m\leq n$) heißen zugeordnete Legendre-Funktionen. Sie sind die Lösungen der Legendre-Gleichung $$\left(1-x^2\right)\, u'' - 2x\, u' \left( n(n+1) - \frac{m}{1-x^2}\right)\, u = 0$$

Leibniz-Kriterium

Ist die Folge $(a_n)$ eine reelle positive, monton fallende Nullfolge, so konvergiert die Reihe $$\sum_{n=1}^\infty (-1)^n a_n$$

Lineare Abbildung

Eine Abbildung $\varphi : V \rightarrow W$ zwischen $\mathbb{K}$-Vektorräumen $V$ und $W$ heißt lineare Abbildung oder Homomorphismus, wenn für alle $\boldsymbol{v},\boldsymbol{w}\in V$ und $\lambda \in K$ gilt:\begin{eqnarray} &\bullet& \varphi(\boldsymbol{v}+\boldsymbol{w}) = \varphi(\boldsymbol{v}) + \varphi(\boldsymbol{w}) \quad\text{(Additivität)} \\ &\bullet& \varphi(\lambda \boldsymbol{v}) = \lambda \varphi(\boldsymbol{v}) \quad\text{(Homogenität)}\end{eqnarray}

Majoranten- und Minorantenkriterium

Für eine Reihe $\left( \sum_{n=0}^{\infty} a_n\right)$ mit $a_n\in\mathbb{C}$ gelten folgende Konvergenzaussagen:$$ ~$$ 1.) Gibt es eine reelle Folge $(b_n)$mit $\vert a_n\vert \leq b_n$ für alle $n\geq n_0$ und konvergiert die Reihe $\left( \sum_{n=0}^\infty b_n \right)$, so konvergiert auch die Reihe $\left( \sum_{n=0}^{\infty} a_n \right)$. $$ ~ $$ 2.) Sind alle $a_n$ reell und gibt es eine divergente Reihe $\left( \sum_{n=0}^\infty b_n\right)$ mit $0\leq b_n \leq a_n$ für alle $n\geq n_0$, so divergiert auch die Reihe $\left( \sum_{n=0}^\infty a_n\right)$.

Matrizenprodukt

Man nennt die $m \times p$-Matrix $$\boldsymbol{A}\boldsymbol{B} = \left(c_{ik}\right)_{m,p} \quad\text{ mit } c_{ik} := \boldsymbol{z}_i \boldsymbol{s}_k = \sum_{j=1}^n a_{ij}b_{jk}$$ das Matrizenprodukt oder auch nur kurz Produkt von $\boldsymbol{A}$ und $\boldsymbol{B}$.

Mittelwertsatz der Integralrechnung

Zu einer stetigen Funktion $f: [a,b] \rightarrow \mathbb{R}$ gibt es ein $z\in[a,b]$ mit $$\int_a^b f(x) \mathrm{d}x = f(z) (b-a)$$

Neumannfunktionen

Die Neumannfunktionen \begin{eqnarray} N_\lambda (z) &:=& \frac{\cos(\lambda\pi) J_\lambda (z) - J_{-\lambda}(z)}{\sin(\lambda \pi)} \qquad \text{ für } \lambda \notin \mathbb{Z}\\ N_n(z) &:=& \lim_{\lambda\rightarrow n} N_\lambda (z) \qquad \text{ für } n\in\mathbb{N}\end{eqnarray} mit den Besselfunktionen $J_\lambda$, sind jeweils linear unabhängig von $J_\lambda$. Daher ist $\left\lbrace J_n, N_n\right\rbrace$ ein Fundamentalsystem der Bessel'schen Differenzialgleichung für $\lambda = n$.

Norm eines Vektors

Ist $\boldsymbol{v}$ ein Element eines euklidischen bzw. unitären Vektorraums $V$ mit Skalarprodukt $\cdot$, so nennt man die positive reelle Zahl $$\Vert \boldsymbol{v} \Vert := \sqrt{\boldsymbol{v}\cdot\boldsymbol{v}}$$ die Norm bzw. Länge des Vektors.

Orthogonal und Orthonormalbasis

Eine Basis $B$ des $\mathbb{R}^n$ heißt Orthogonalbasis, wenn je zwei verschiedene Basisvektoren senkrecht aufeinanderstehen, das heißt: $$\text{Aus } \boldsymbol{b}, \boldsymbol{b'} \in B \text{ und } \boldsymbol{b} \neq \boldsymbol{b'} \text{ folgt } \boldsymbol{b} \perp \boldsymbol{b'}$$ Eine Orthogonalbasis heißt Orthonormalbasis, wenn jeder Basisvektor zusätzlich normiert ist, also die Länge $1$ hat, das heißt: $$\text{Für jedes } \boldsymbol{b}\in B \text{ gilt zusätzlich } \Vert \boldsymbol{b} \Vert = 1$$

Orthogonale Projektion

Ist $U$ ein abgeschlossener Unterraum eines Hilbertraums $X$, so gibt es eine Orthogonalprojektion $\mathcal{P}: X\rightarrow U$ mit der Eigenschaft $$\Vert x - \mathcal{P}x \Vert \leq \Vert x-u\Vert \qquad \text{für alle } u\in U$$ Der Operator $\mathcal{P}$ ist linear und beschränkt mit $\Vert \mathcal{P}\Vert = 1$. Ferner gilt $$\left\langle x-\mathcal{P}x \,,\, u \right\rangle = 0 \qquad \text{für alle } u \in U$$

Partielle Ableitung

Die partielle Ableitung einer Funktion $f: \mathbb{R}^n \rightarrow \mathbb{R}$ nach einer Variablen $x_k$ im Punkt $\tilde{\boldsymbol{x}} = \left( \tilde{x}_1, \dots , \tilde{x}_n\right)$ ist definiert über \begin{eqnarray} f_{x_k} (\tilde{\boldsymbol{x}}) &\equiv & \left. \frac{\partial f}{\partial x_k} \right\vert_{\tilde{\boldsymbol{x}}} := \left. \frac{\partial f}{\partial \boldsymbol{e}_k} \right\vert_{\tilde{\boldsymbol{x}}} \\ &=& \lim_{h\rightarrow 0} \frac{f(\tilde{\boldsymbol{x}}+h\boldsymbol{e}_k) - f(\tilde{\boldsymbol{x}})}{h} \end{eqnarray}

Polynom

Eine Funktion $p: \mathbb{R} \rightarrow \mathbb{R}$ heißt Polynom, wenn es eine explizite Darstellung der Funktion mit $a_i\in\mathbb{R}$ gibt, durch $$ p(x) = \sum_{i=0}^n a_i x^i = a_0 + a_1 x + a_2 x^2 + \dots + a_{n-1} x^{n-1} + a_n x^n$$

Potentialfeld

Ein Vektorfeld $\boldsymbol{v}$, das sich als Gradient eines Skalarfeldes darstellen lässt $$\boldsymbol{v} = \textbf{grad}\Phi$$ heißt Potenzialfeld, Gradientenfeld oder konservativ. Man sagt auch "$\boldsymbol{v}$ besitzt ein Potenzial".

Potenzreihe

Unter einer Potenzreihe versteht man eine Reihe der Form $$\left(\sum_{n=1}^\infty a_n (z - z_0)^n \right)$$ Hierbei ist $(a_n)$ eine Folge von komplexen Koeffizienten, die feste Zahl $z_0\in\mathbb{C}$ heißt Entwicklungspunkt.

Produktregel

Das Produkt zweier differenzierbarer Funktionen $f,g: D \rightarrow \mathbb{R}$ ist differenzierbar und es gilt für die Ableitung $$\left(fg\right)'(x) = f(x)g'(x) + f'(x)g(x) $$

Quotientenkriterium

Wenn der Grenzwert $\rho := \lim_{n\rightarrow\infty} \vert \frac{a_{n+1}}{a_n}\vert$ existiert und kleiner als eins ist, so ist die Reihe $\sum_{n=1}^\infty a_n $ absolut konvergent. Ist $\rho$ größer als eins, so divergiert die Reihe. Im Falle $\rho = 1$ kann keine Aussage getroffen werden.

Reihe

Für eine beliebige Zahlenfolge $(a_k)$ aus $\mathbb{C}$ heißt die Folge $(s_n)$ der Partialsummen $$s_n = \sum_{k=1}^n a_k$$ eine unendlichte Reihe. Konvergiert die Folge $(s_n)$, so heißt auch die Reihe konvergent, andernfalls divergent. Konvergiert die Folge $(s_n)$, so schreibt man für den Grenzwert $$\sum_{k=1}^{\infty} a_k := \lim_{n\rightarrow \infty} s_n$$ und nennt ihn den Wert der Reihe.

Residuensatz

Sind in einem einfach zusammenhängenden Gebiet $G$ $z_1,z_2,\dots z_N\in G$ endlich viele (paarweise verschiedene) Punkte und ist die Funktoin $f$ auf $G\setminus\left\lbrace z_1, \dots, z_N\right\rbrace$ holomorph, dann gilt für jeden geschlossenen Weg $C$, der ganz in $G\setminus\left\lbrace z_1, \dots, z_N\right\rbrace$ verläuft: $$\oint_C f(z) \mathrm{d}z = 2\pi \mathrm{i} \cdot \sum_{j=1}^N \left(\mathrm{Res}(f,z_j)\cdot \mathrm{Ind}_C(z_j)\right)$$ mit den Residuen und Cauchy-Integralen.

Satz von Gauß

Ist $B$ ein Teilbereich des $\mathbb{R}^3$ mit der stückweise stetig differenzierbaren Oberfläche $\partial B$ und ist $\boldsymbol{v}(\boldsymbol{r})$ ein in ganz $B$ stetig differenzierbares Vektorfeld, so gilt $$\int_{\partial B} \boldsymbol{v} \cdot \mathrm{d}\boldsymbol{\sigma} = \int_B \textbf{div} \boldsymbol{v} \mathrm{d} \boldsymbol{x}$$

Satz von Stokes

Für ein stetig differenzierbares Vektorfeld $\boldsymbol{v}\in\mathbb{R}^3$ und eine orientierbare stückweise glatte Fläche $F$ mit dem stückweise glatten Rand $\partial F$ gilt $$\oint_{\partial F} \boldsymbol{v}\cdot \mathrm{d}\boldsymbol{s} = \int_F \textbf{rot} \boldsymbol{v} \cdot \mathrm{d}\boldsymbol{\sigma}$$ wobei die Kurve $\partial F$ so parametrisiert ist, dass sie den nach außen weisenden Normalenvektor der Fläche im mathematisch positiven Sinne umläuft.

Singulärwertzerlegung einer Matrix

Für jede Matrix $\boldsymbol{A}\in \mathbb{R}^{n\times m}$ gibt es orthogonale Matrizen $\boldsymbol{U}\in\mathbb{R}^{n\times n}$ und $\boldsymbol{V}\in\mathbb{R}^{m\times m}$ mit $$\boldsymbol{A} = \boldsymbol{U}^\top\boldsymbol{D}\boldsymbol{V} \quad\text{ mit } \boldsymbol{D} = \mathrm{diag}\left(s_1,\dots,s_r\right)\in\mathbb{R}^{n\times m}$$ Die Quadrate der Singulärwerte $s_1,\dots ,s_r$ von $\boldsymbol{A}$ sind die von null verschiedenen Eigenwerte der symmetrischen Matrix $\boldsymbol{A}^\top\boldsymbol{A}$

Skalarprodukt

Aus dem Skalarprodukt zweier Vektoren $\boldsymbol{u}, \boldsymbol{v} \in \mathbb{K}^n$ ist der zwischen ihnen eingeschlossene Winkel $\varphi$ definiert über $$\boldsymbol{u} \cdot \boldsymbol{v} = \Vert \boldsymbol{u} \Vert ~ \Vert \boldsymbol{v} \Vert \cos\varphi$$

Stammfunktion

Es bezeichne $f$ eine auf einem offenen Intervall $(a,b)$ definierte Funktion. Jede differenzierbare Funktion $F: (a,b) \rightarrow \mathbb{R}$ mit $F'=f$ heißst Stammfunktion von $f$.

Stetigkeit

Eine Funktion $f: \mathbb{R}^n \rightarrow \mathbb{R}$ ist stetig in einem Punkt $\tilde{\boldsymbol{x}} = \left( \tilde{x}_1, \dots , \tilde{x}_n \right)$, wenn $$\lim_{\boldsymbol{x}\rightarrow\tilde{\boldsymbol{x}}} f(\boldsymbol{x}) = f (\tilde{\boldsymbol{x}})$$ ist. Sie ist stetig in einem Bereich $B\subseteq D(f) \subseteq \mathbb{R}^n$, wenn sie in jedem Punkt $\tilde{\boldsymbol{x}}\in B$ stetig ist.

Substitutionsmethode

Es gilt $$\int f(x) \mathrm{d}x = \int f\left( x(u) \right) \frac{\mathrm{d}x}{\mathrm{d}u} \mathrm{d} u$$ wenn $u$ eine differenzierbare Funktion von $x$ und im Integrationsbereich überall $u' \neq 0$ ist. Dabei bezeichnet $x(u)$ die Umkehrfunktion von $u(x)$.

Surjektivität

Eine Abbildung $f: A\rightarrow B\,, a\mapsto f(a)$ heißt surjektiv, wenn auf jedes Element der Wertemenge abgebildet wird.

Symmetrische Matrix

Man nennt eine Matrix $\boldsymbol{A} \in \mathbb{K}^{n\times n}$ symmetrisch, wenn gilt $$\boldsymbol{A}^\top = \boldsymbol{A} \quad\text{ d.h. } a_{ij} = a_{ji} \quad\text{ für } i,j \leq n\in\mathbb{N}$$

Taylor für Funktionen

Für eine Funktion $f: G \rightarrow \mathbb{R}$ mit $G \subset \mathbb{R}^n$ offen, $f\in C^{n+1}(G)$, einen Vektor $\tilde{\boldsymbol{x}}\in G$ und eine Vektor $\boldsymbol{h} = \left( h_1, \dots, h_n\right)^\top$ gilt: $$ $$ Liegen die Punkte $\tilde{\boldsymbol{x}} + t\boldsymbol{h}$ für $t\in[0,1]$ alle in $G$, dann gibt es ein $\vartheta \in (0,1)$, sodass \begin{eqnarray} f(\tilde{\boldsymbol{x}} + \boldsymbol{h}) &=& \sum_{\nu= 0}^m \left. \frac{1}{\nu!} \left( \boldsymbol{h} \cdot \nabla\right)^\nu f \right\vert_{\tilde{\boldsymbol{x}}} \\ && + \left. \frac{1}{(m+1)!} \left( \boldsymbol{h} \cdot \nabla \right)^{m+1} f \right\vert_{\tilde{\boldsymbol{x}}+\vartheta\boldsymbol{h}}\end{eqnarray} hierbei nennen wir dabei $\tilde{\boldsymbol{x}}$ die Entwicklungsstelle.

Tensor 1.Stufe

Ein Tensor 1.Stufe ist eine Größe, deren Komponenten $x^i$ oder $x_i$ sich bei einem Wechsel von der Basis $B$ zu $\overline{B}$ kontravariant oder kovariant verhalten, also $$\overline{x}^i = \overline{a}^i_j x^j \,,\quad x^i = \underline{a}^i_j \overline{x}^j \qquad\qquad \overline{x}_j = \underline{a}^i_j x_i \,,\quad x_j = \overline{a}^i_j \overline{x}_i$$

Tensor allgemein

Ein $r$-fach kontravariant und $s$-fach kovarianter Tensor $t_{j_1\dots j_r}^{i_1\dots i_r}$ ist eine Größe, deren Komponenten sich bei Basiswechsel wie folgt verhalten: \begin{eqnarray} \overline{t}_{j_1\dots j_r}^{i_1\dots i_r} &=& \overline{a}_{k_1}^{i_1} \cdots \overline{a}_{k_r}^{i_r} \underline{a}_{j_1}^{l_1} \cdots \underline{a}_{j_s}^{l_s} ~ t_{l_1\dots l_r}^{k_1\dots k_r} \\ t_{j_1\dots j_r}^{i_1\dots i_r} &=& \underline{a}_{k_1}^{i_1} \cdots \underline{a}_{k_r}^{i_r} \overline{a}_{j_1}^{l_1} \cdots \overline{a}_{j_s}^{l_s} ~ \overline{t}_{l_1\dots l_r}^{k_1\dots k_r} \end{eqnarray}

Wellengleichung, Lösung nach D'Alembert

Ist $f\in C^2(\mathbb{R})$ und $g\in C^1(\mathbb{R})$. Dann besitzt das Anfangswertproblem \begin{eqnarray} \frac{\partial^2 }{\partial t^2} - a^2 \frac{\partial^2 u}{\partial x^2} &=& 0 \qquad \text{ in } \mathbb{R}\times(0,\infty), \\ u(x,0) &=& f(x) \qquad \text{ für } x\in\mathbb{R}, \\ \frac{\partial u(x,0)}{\partial t} &=& g(x) \qquad \text{ für } x\in\mathbb{R}\end{eqnarray} genau eine Lösung. Diese ist gegeben durch $$u(x,t) = \frac{1}{2}\left( f(x+at) + f(x-at) \right) + \frac{1}{2a} \int_{x-at}^{x+at} g(z) \mathrm{d}z$$

Wertemenge

Eine Abbildung $f$ aus einer Menge $A$ in eine Menge $B$ ist eine Vorschrift, die jedem Element $a$ aus $A$ genau ein Element $b = f (a)$ aus $f (A) \subseteq B$ zuordnet. Dabei nennt man $A = D(f)$ die Definitionsmenge, $f (A)$ ist das Bild, und $B = W(f)$ heißt die Wertemenge.

Wurzelkriterium

Wenn der Grenzwert $\rho := \lim_{n\rightarrow\infty} \sqrt[n]{\vert a_n \vert}$ existiert und kleiner als eins ist, so ist die Reihe $\left( \sum_{n=1}^\infty a_n \right)$ absolut konvergent. Ist $\rho$ größer als eins, so divergiert die Reihe. Im Falle $\rho = 1$ kann keine Aussage getroffen werden.

Zurück zur Übersicht