Compare commits

...

9 Commits

14 changed files with 459 additions and 206 deletions

View File

@ -10,18 +10,18 @@
\section{Abstract} \section{Abstract}
La mode actuelle dans l'apprentissage profond en termes de classification est d'établir un hyperplan qui sépare le mieux possible les points d'un set de données de façon déterministique. La mode actuelle dans l'apprentissage profond en termes de classification est d'établir un hyperplan qui sépare le mieux possible les points d'un set de données de façon déterministe.
Cette méthodologie héritée des machines à vecteurs de supports (i.e. SVM \citereferences{Weston1999SupportVM}) maximise la marge (e.g. hinge loss), pourtant, cette approche s'éloigne énormément de l'anthropomorphisme recherché par les réseaux neuronaux. Cette méthodologie héritée des machines à vecteurs de supports (i.e. SVM \citereferences{Weston1999SupportVM}) maximise la marge (e.g. hinge loss), pourtant, cette approche s'éloigne énormément de l'anthropomorphisme recherché par les réseaux neuronaux.
Car cette approche vise à différencier les classes entre toutes les autres (duel $1$ vs $N-1$ classes) ce qui résulte un hyperplan dont on ne peut que difficilement interpréter les résultats. Car cette approche vise à différencier les classes entre toutes les autres (duel $1$ vs $N-1$ classes) ce qui résulte un hyperplan dont on ne peut que difficilement interpréter les résultats.
De plus, si on rajoute des classes, on doit entraîner à nouveau le modèle ou, au minima, entraîner à nouveau la dernière couche avec l'apprentissage par transfert \citereferences{transfer_learning_survey}. De plus, si on rajoute des classes, on doit entraîner à nouveau le modèle ou, au minima, entraîner à nouveau la dernière couche avec l'apprentissage par transfert \citereferences{transfer_learning_survey}.
Une approche plus anthropomorphiste serait d'entraîner un modèle qu'y se base non sur les différences, mais sur les similitudes. Cela permettra également d'unifier plusieurs paradigmes de l'apprentissage automatique tel que la classification, la détection d'anomalie, la génération d'échantillons ainsi que l'apprentissage semi-supervisée. Une approche plus anthropomorphiste serait d'entraîner un modèle qu'y se base non sur les différences, mais sur les similitudes. Cela permettra également d'unifier plusieurs paradigmes de l'apprentissage automatique tel que la classification, la détection d'anomalie, la génération d'échantillons ainsi que l'apprentissage semi-supervisée.
Plusieurs tentatives d'unification des paradigmes ont été tentées comme le fait d'utiliser un modèle génératif de type GAN \citereferences{generative_adversarial_nets} pour faire de la classification \citereferences{semi-supervised_learning_with_deep_generative_models}. Pourtant le fait que tout les modèles entraînées par descente de gradient sont des approximations de machine de kernel \citereferences{every_model_learned_by_gradient_descent_is_approximately_a_kernel_machine} montre que le problème est intrinsèque au paradigme et donc qu'il peut être intéréssant de changer d'approche. Plusieurs tentatives d'unification des paradigmes ont été tentées comme le fait d'utiliser un modèle génératif de type GAN \citereferences{generative_adversarial_nets} pour faire de la classification \citereferences{semi-supervised_learning_with_deep_generative_models}. Pourtant, le fait que tous les modèles entraînées par descente de gradient sont des approximations de machine de kernel \citereferences{every_model_learned_by_gradient_descent_is_approximately_a_kernel_machine} montre que le problème est intrinsèque au paradigme et donc qu'il peut être intéressant de changer d'approche.
\section{Sujet} \section{Sujet}
Le but du sujet est de créer un modèle caractériser comme un réseau de neurones probabilistes qui, sur un set de données défini tel que : Le but du sujet est de créer un modèle caractérisé comme un réseau de neurones probabilistes qui, sur un set de données défini tel que :
$D = \{ (x_1, y_1),\dots, (x_n, y_n)\} \subseteq \mathcal{R}^d * \mathcal{C}$ $D = \{ (x_1, y_1),\dots, (x_n, y_n)\} \subseteq \mathcal{R}^d * \mathcal{C}$
\begin{itemize} \begin{itemize}
@ -33,13 +33,13 @@ $D = \{ (x_1, y_1),\dots, (x_n, y_n)\} \subseteq \mathcal{R}^d * \mathcal{C}$
Le modèle maximisera une approximation de la distribution de $P(X)$, sachant que grâce au théorème central limite, nous pouvons raisonnablement prédire que la distribution sera gaussienne, ce qui est essentiel pour ce qui suit. Le modèle maximisera une approximation de la distribution de $P(X)$, sachant que grâce au théorème central limite, nous pouvons raisonnablement prédire que la distribution sera gaussienne, ce qui est essentiel pour ce qui suit.
Et à partir de cette distribution, nous pouvons assigner un point $x_i$ du set à son label $y_i$ et donc estimer de manière fractale (comme le permet le théorème centrale limite) chaque sous distribution $P(X|Y)$. Cette approche permet, si on dispose de nouvelles données, d'uniquement utiliser celle-ci et non le set entier, ce qui réduit considérablement le temps d'entraînement. Et à partir de cette distribution, nous pouvons assigner un point $x_i$ du set à son label $y_i$ et ainsi estimer de manière fractale (comme le permet le théorème centrale limite) chaque sous distribution $P(X \mid Y)$. Cette approche permet, si on dispose de nouvelles données, d'uniquement utiliser celle-ci et non le set entier, ce qui réduit considérablement le temps d'entraînement.
\section{Applications} \section{Applications}
Avec ce changement intrinsèque dans la manière d'entraîner les modèles nous avons avec ces distributions, plusieurs choix possibles comme : Avec ce changement intrinsèque dans la manière d'entraîner les modèles, nous avons avec ces distributions, plusieurs choix possibles comme :
\begin{itemize} \begin{itemize}
\item Classification : on peux inférer le label en calculant l'argmin de chaque divergence de Kullback-Leibler \citereferences{kl_divergence} pour toutes les distributions \item Classification : on peut inférer le label en calculant l'argmin de chaque divergence de Kullback-Leibler \citereferences{kl_divergence} pour toutes les distributions
\item Détection d'anomalie : chaque sous distribution est gaussienne, donc un calcul du z-score ($Z=\frac{x-\mu}{\sigma}$) permet de détecter une potentielle anomalie \item Détection d'anomalie : chaque sous distribution est gaussienne, donc un calcul du z-score ($Z=\frac{x-\mu}{\sigma}$) permet de détecter une potentielle anomalie
\item Génération d'échantillons : avec les paramètres estimés de chaque distribution, nous pouvons utiliser un vecteur $\mathcal{N}(\mu',\sigma')$ pour générer de nouveaux vecteurs dans l'espace vectoriel estimé \item Génération d'échantillons : avec les paramètres estimés de chaque distribution, nous pouvons utiliser un vecteur $\mathcal{N}(\mu',\sigma')$ pour générer de nouveaux vecteurs dans l'espace vectoriel estimé
\item Apprentissage semi-supervisée : l'entraînement du modèle ne dépend pas de $Y$ donc nous pouvons entraîner le modèle avec le maximum de données non labellisé. Ensuite, en labellisant que certains points $X$ le modèle pourra déduire quels points sont les plus similaires et en conséquence les plus susceptibles d'être du même label. \item Apprentissage semi-supervisée : l'entraînement du modèle ne dépend pas de $Y$ donc nous pouvons entraîner le modèle avec le maximum de données non labellisé. Ensuite, en labellisant que certains points $X$ le modèle pourra déduire quels points sont les plus similaires et en conséquence les plus susceptibles d'être du même label.

View File

@ -4,39 +4,79 @@
\section{Structures} \section{Structures}
%TODO Complete section %TODO Complete section
\subsection{Magma} \label{definition:magma} \subsection{Magma}
Soit un ensemble $S$ avec une loi de composition interne $(\star)$ notée $(S,\star)$ tel que $\forall(a,b) \in S, a \star b \in S$. \begin{definition_sq} \label{definition:magma}
Un magma est un ensemble $E$ avec une loi de composition interne $\function{\star}{E^2}{E}$ notée $(E, \star)$ tel que $\forall(a, b) \in E, a \star b \in E$.
\end{definition_sq}
\langsubsection{Magma unital}{Unital magma} \label{definition:unital_magma} \langsubsection{Magma unital}{Unital magma}
Soit un magma \ref{definition:magma} $(S,\star)$ untial en $0_e$ tel que $\exists 0_e \in S, \forall a \in S, 0_e \star a = a$. \begin{definition_sq} \label{definition:unital_magma}
Un magma \ref{definition:magma} $(E, \star)$ est dit \textbf{unital} si $\exists 0_E \in E, \forall a \in E, 0_E \star a = a$.
\end{definition_sq}
\subsection{Monoïde} \label{definition:monoid} \subsection{Monoïde}
Soit un magma unital \ref{definition:unital_magma} $(S,\star)$ dont la loi de composition est associative \ref{definition:associativity}. \begin{definition_sq} \label{definition:monoid}
Un monoïde $(E, \star)$ est un magma unital \ref{definition:unital_magma} dont la loi de composition est associative \ref{definition:associativity}.
\end{definition_sq}
\langsubsection{Groupe}{Group} \label{definition:group} \langsubsection{Groupe}{Group}
Soit un monoïde \ref{definition:monoid} $(G,\star)$ ayant un élément inverse tel que $\forall a \in G, \exists a^{-1} \in G, a \star a^{-1} = 0_e$. \begin{definition_sq} \label{definition:group}
Un groupe $(G, \star)$ est un monoïde \ref{definition:monoid} ayant un élément inverse tel que $\forall a \in G, \exists a^{-1} \in G, a \star a^{-1} = 0_E$.
\end{definition_sq}
\langsubsubsection{Groupe abélien}{Abelian group} \label{definition:abelian_group} \langsubsubsection{Groupe abélien}{Abelian group}
Un groupe abélien est un groupe \ref{definition:group} dont la loi de composition est commutative \ref{definition:commutativity}. \begin{definition_sq} \label{definition:abelian_group}
Un groupe abélien est un groupe \ref{definition:group} dont la loi de composition est commutative \ref{definition:commutativity}.
\end{definition_sq}
\langsubsubsection{Morphisme de groupe}{Group morphism}
\begin{definition_sq} \label{definition:group_morphism}
Un morphisme de groupe est un homomorphisme \ref{definition:homomorphism} appliqué à la catégorie des groupes ($\Grp$).
Soit $(X, \star)$ et $(Y, \composes)$ deux groupes ainsi que l'application $\function{\phi}{X}{Y}$ tel que
$$\forall (x, y) \in X^2, \phi(x \star y) = \phi(x) \composes \phi(y)$$
Similairement, le diagramme suivant commute :
\[\begin{tikzcd}
X \cartesianProduct X \arrow[r, "\phi \cartesianProduct \phi"] \arrow[d, "\star"] & Y \cartesianProduct Y \arrow[d, "\composes"] \\
X \arrow[r, "\phi"] & Y
\end{tikzcd}\]
\end{definition_sq}
\begin{theorem_sq}
Soit $((G, +), (H, \star)) \in \Grp^2$ et $f$ un épimorphisme entre $G$ et $H$ \ref{definition:epimorphism}.
$$(G, +) \in \Ab \implies (H, \star) \in \Ab$$
\end{theorem_sq}
\begin{proof}
Soit $((G, +), (H, \star)) \in \Grp^2$ et $f \in \hom(G, H)$ tel que $f$ est un épimorphisme \ref{definition:epimorphism}.
$f$ est un épimorphisme $\implies \forall (x, y) \in H^2, \exists (a, b) \in G^2, f(a) = x \land f(b) = y$
$(G, +) \in Ab \implies x \star y = f(a) \star f(b) = f(a + b) = f(b + a) = f(b) \star f(a) = y \star x$
\end{proof}
\langsubsection{Corps}{Field} \label{definition:field} \langsubsection{Corps}{Field} \label{definition:field}
Soit une structure $F$ avec deux lois de composition interne $(+)$ et $(\cartesianProduct)$ notée $(F,+,\cartesianProduct)$. Soit une structure $F$ avec deux lois de composition interne $(+)$ et $(\cartesianProduct)$ notée $(F, +, \cartesianProduct)$.
\begin{itemize} \begin{itemize}
\item{$(F,+)$ est un groupe \ref{definition:group} unital en $0_e$} \item{$(F, +)$ est un groupe abélien \ref{definition:abelian_group} unital en $0_E$}
\item{$(F\backslash\{0_e\},\cartesianProduct)$ est un groupe \ref{definition:group}} \item{$(F\backslash\{0_E\}, \cartesianProduct)$ est un groupe \ref{definition:group}}
\end{itemize} \end{itemize}
\langsubsubsection{Corps abélien}{Abelian field} \label{definition:abelian_field} \langsubsubsection{Corps commutatif}{Commutative field} \label{definition:commutative_field}
Un corps abélien est un corps \ref{definition:field} dont la loi de composition est commutative \ref{definition:commutativity}.
Un corps commutatif est un corps \ref{definition:field} dont la loi de composition $(\cartesianProduct)$ est commutative \ref{definition:commutativity}.
\langsubsection{Anneau}{Ring} \label{definition:ring} \langsubsection{Anneau}{Ring} \label{definition:ring}
%TODO Complete subsection %TODO Complete subsection
@ -50,7 +90,7 @@ Une matrice est une structure qui permet de regrouper plusieurs éléments d'un
\end{definition_sq} \end{definition_sq}
\begin{definition_sq} \label{definition:identity_matrix} \begin{definition_sq} \label{definition:identity_matrix}
La matrice identité (notée $I_n$) est une matrice carrée \ref{definition:square_matrix} tel que $\forall (i,j) \in \{1, \cdots, n\}^2, M_{i,j} = \begin{cases} i = j & 1 \\ \otherwise & 0 \end{cases}$ La matrice identité (notée $I_n$) est une matrice carrée \ref{definition:square_matrix} tel que $\forall (i,j) \in \discreteInterval{1, n}^2, M_{i,j} = \begin{cases} i = j & 1 \\ \otherwise & 0 \end{cases}$
\end{definition_sq} \end{definition_sq}
\subsection{Trace} \subsection{Trace}
@ -80,12 +120,12 @@ $Eigenvalues = m \pm \sqrt{m^2-det(A)}$
\langsubsection{Déterminant}{Determinant} \langsubsection{Déterminant}{Determinant}
%%TODO Complete subsection %%TODO Complete subsection
$\function{D}{\mathcal{M}_{m\cartesianProduct n}(\R)}{R}$ $\function{D}{\mathcal{M}_{m, n}(\R)}{R}$
\langsubsubsection{Axiomes}{Axioms} \langsubsubsection{Axiomes}{Axioms}
%%TODO Complete subsubsection %%TODO Complete subsubsection
$\forall M \in \mathcal{M}_{m\cartesianProduct n}$ $\forall M \in \mathcal{M}_{m, n}$
\begin{itemize} \begin{itemize}
\item{$\forall \lambda \in \K, D(\lambda M) = \lambda D(M)$} \item{$\forall \lambda \in \K, D(\lambda M) = \lambda D(M)$}
\end{itemize} \end{itemize}
@ -110,7 +150,7 @@ $(AB)^{-1} = B^{-1}A^{-1}$
%TODO Complete subsection %TODO Complete subsection
\begin{definition_sq} \label{definition:diagonalizable_matrix} \begin{definition_sq} \label{definition:diagonalizable_matrix}
Une matrice $A \in M_n(\K)$ est dite \textbf{diagonalisable} sur $\K$ s'il existe une matrice inversible \ref{definition:inversible_matrix} $P \in M_n(\K)$ ainsi qu'une matrice diagonale $D \in M_n(\K)$ tel que $A = PDP^{-1}$ Une matrice $A \in M_n(\K)$ est dite \textbf{diagonalisable} sur $\K$ s'il existe une matrice inversible \ref{definition:inversible_matrix} $P \in GL_n(\K)$ ainsi qu'une matrice diagonale $D \in M_n(\K)$ tel que $A = PDP^{-1}$
\end{definition_sq} \end{definition_sq}
\langsubsection{Orthogonalité}{Orthogonality} \langsubsection{Orthogonalité}{Orthogonality}
@ -123,59 +163,76 @@ $det(M) \in \{-1,1\}$
$a \in Tr_n$ $a \in Tr_n$
\subsection{Exponentiation}
%TODO Complete subsection
\begin{definition_sq} \label{definition:exponentiation_matrix}
Pour $A \in M_n(\K)$, on définit
$$e^A := \sum\limits_{n = 0}^{+\infty} \frac{A^n}{n!}$$
\end{definition_sq}
\begin{theorem_sq}
Pour tout $A \in M_n(\K)$ converge dans $M_n(\K)$.
\end{theorem_sq}
\begin{proof}
Soit $A \in M_n(\K)$ ainsi qu'une norme subordonnée quelconque $\matrixnorm{.}$.
$$\forall n \in \N, \matrixnorm{\frac{A^n}{n!}} \le \frac{\matrixnorm{A^n}}{n!}$$
\end{proof}
\begin{theorem_sq}
Pour tout $A,B \in M_n(\K)$ tel que $AB = BA$ alors $e^{A + B} = e^A e^B = e^B e^A$.
\end{theorem_sq}
\begin{proof}
Soit $A,B \in M_n(\K)$ tel que $AB = BA$. Posons $U_n := \frac{A^n}{n!}$ et $V_n := \frac{B^n}{n!}$, comme $U_n$ et $V_n$ converge absolument, leur produit de série $W_n := \sum\limits_{n \in \N} U_n \sum\limits_{k \in \N} V_k$ aussi. Hors,
$$W_n = \sum\limits_{k = 0}^n U_k V_{n - k} = \sum\limits_{k = 0}^n \frac{A^n}{n!} \frac{B^{(n - k)}}{(n - k)!}$$
comme $AB = BA$ et en tendant $n$ vers l'infini cela donne $\lim\limits_{n \to +\infty} W_n = e^A e^B = e^B e^A$
Sachant la formule du binôme de Newton $(A + B)^n = \sum\limits_{k = 0}^n \frac{n!}{k! (n - k)!} A^k B^{n - k}$
$$W_n = \sum\limits_{k = 0}^n \frac{A^n}{n!} \frac{B^{(n - k)}}{(n - k)!} = \sum\limits_{k = 0}^n \frac{(A + B)^n}{n!}$$
en tendant $n$ vers l'infini cela donne $\lim\limits_{n \to +\infty} W_n = e^{A + B}$
\end{proof}
\begin{theorem_sq}
Pour tout $A \in M_n(\K)$, $e^A$ est inversible \ref{definition:inversible_matrix} et $(e^A)^{-1} = e^{-A}$
\end{theorem_sq}
\begin{proof}
Soit $A \in M_n(\K)$, comme $A(-A) = -AA$ alors $e^{-A} e^A = e^A e^{-A} = e^{A - A} = e^0 = \Identity_n$
\end{proof}
\langsection{Formes quadratiques}{Quadratic forms} \langsection{Formes quadratiques}{Quadratic forms}
%TODO Complete section
\langsubsection{Forme linéaire}{Linear form} \begin{definition_sq} \label{definition:quadratic_form}
%TODO Complete subsubsection On appelle \textbf{forme quadratique} sur $E$ toute application $\function{q}{E}{\R}$ telle qu'il existe une forme bilinéaire symétrique \ref{definition:bilinear_form} $\function{b}{E \cartesianProduct E}{\R}$ telle que $\forall x \in E, q(x) = b(x, x)$
\end{definition_sq}
\langsubsubsection{Cas 2x2}{2x2 case} \begin{prop_sq}
%TODO Complete subsection Si $q$ une forme quadratique \ref{definition:quadratic_form}, alors la forme bilinéaire $b$ associée est unique, déterminé par les \textbf{formules de polarisation}
$a_1x_1^2 + a_2x_1x_2 + a_3x_2^2$ $$b(x, y) = \frac{1}{2}\left(q(x + y) - q(x) - q(y)\right)$$
$$= \frac{1}{4}\left(q(x + y) - q(x - y)\right)$$
\langsubsubsection{Cas 3x3}{3x3 case} On dit alors que $b$ est la \textbf{forme polaire} de $q$.
%TODO Complete subsection \end{prop_sq}
$a_1x_1^2 + a_2x_2^2 + a_3x_3^3 + a_4x_1x_2 + a_5x_1x_3 + a_6x_2x_3$ \begin{proof}
Soit $q$ une forme quadratique \ref{definition:quadratic_form} ainsi que ça forme bilinéaire $b$ associée. Comme $\forall x \in E, q(x) = b(x, xx)$, on peut développer, par bilinéarité et symétrie de $b$, pour obtenir
\langsubsection{Forme matricielle}{Matrix form} $$q(x + y) = b(x + y, x + y) = b(x, x) + 2b(x, y) + b(y, y) = q(x) + 2b(x, y) + q(y)$$
%TODO Complete subsubsection
\langsubsubsection{Cas 2x2}{2x2 case} Ainsi que
%TODO Complete subsection
$\begin{bmatrix}x_1 & x_2\end{bmatrix} $$q(x - y) = b(x - y, x - y) = b(x, x) - 2b(x, y) + b(y, y) = q(x) - 2b(x, y) + q(y)$$
\begin{bmatrix}a_1 & \frac{a_2}{2} \\\frac{a_2}{2} & a_3\end{bmatrix}
\begin{bmatrix}x_1\\x_2\end{bmatrix}
\Leftrightarrow X^TAX$
\langsubsubsection{Cas 3x3}{3x3 case} Les deux formules de polarisation s'en déduisent immédiatement.
%TODO Complete subsection \end{proof}
$\begin{bmatrix}x_1 & x_2 & x_3 \end{bmatrix}
\begin{bmatrix}a_1 & \frac{a_2}{2} & \frac{a_4}{2} \\\frac{a_2}{2} & a_2 & \frac{a_3}{2} \\\frac{a_3}{2} & \frac{a_4}{2} & a_3\end{bmatrix}
\begin{bmatrix}x_1\\x_2\\x_3\end{bmatrix}
\Leftrightarrow X^TAX$
\langsubsection{Cas général}{General case}
%TODO Complete subsection
\langsubsubsection{Forme linéaire}{Linear form}
%TODO Complete subsubsection
$a_1x_1^2 + a_2x_2^2 + a_3x_3^3 + a_4x_1x_2 + a_5x_1x_3 + a_6x_2x_3$
\langsubsubsection{Forme matricielle}{Matrix form}
%TODO Complete subsubsection
$X \in \mathcal{M}_{1,n}$
$X = \begin{bmatrix}x_1, \cdots, x_n\end{bmatrix}$
$A \in \mathcal{T}^+_{n,n}$
$A = \begin{bmatrix}x_1, \cdots, x_n\end{bmatrix}$
\langsection{Espaces vectoriels}{Vectors spaces} \label{definition:vector_space} \langsection{Espaces vectoriels}{Vectors spaces} \label{definition:vector_space}
%TODO Complete section %TODO Complete section
@ -187,32 +244,32 @@ Soit $(E,+)$ un groupe abélien \ref{definition:abelian_group} de $\K$
\end{itemize} \end{itemize}
\bigskip \bigskip
Et vérifiant $\forall(\alpha,\beta) \in \K, \forall(a,b,c) \in E$ Et vérifiant $\forall(\alpha, \beta) \in \K^2, \forall(a, b, c) \in E^3$
\begin{itemize} \begin{itemize}
\item{Unital en $*$} \item{Unital en $*$}
\item{Distributivité (gauche et droite) $+$ de $\K \Leftrightarrow a(\alpha+\beta)=(\alpha+\beta)a=\alpha a + \beta a$} \item{Distributivité (gauche et droite) $+$ de $\K \equivalence a(\alpha + \beta) = (\alpha + \beta)a = \alpha a + \beta a$}
\item{Distributivité (gauche et droite) $*$ de $\K \Leftrightarrow a(\alpha*\beta)=(\alpha*\beta)a=\alpha(\beta a)$} \item{Distributivité (gauche et droite) $*$ de $\K \equivalence a(\alpha * \beta) = (\alpha * \beta)a = \alpha(\beta a)$}
\end{itemize} \end{itemize}
\langsubsection{Famille libre}{Free family} \label{definition:vector_space_free_family} \langsubsection{Famille libre}{Free family} \label{definition:vector_space_free_family}
\begin{definition_sq} \begin{definition_sq}
Une famille \suite{e} est dite \textbf{libre} si Une famille \suite{e} est dite \textbf{libre} si
$$\forall i \in \discreteInterval{1, n}, \lambda_i \in K, \sum\limits_{i = 1}^n \lambda_i e_i = 0 \implies \lambda_i = 0$$ $$\forall i \in \discreteInterval{1, n}, \lambda_i \in \K, \sum\limits_{i = 1}^n \lambda_i e_i = 0 \implies \lambda_i = 0$$
\end{definition_sq} \end{definition_sq}
\langsubsection{Famille génératrice}{Generating family} \label{definition:vector_space_generating_family} \langsubsection{Famille génératrice}{Generating family} \label{definition:vector_space_generating_family}
\begin{definition_sq} \begin{definition_sq}
Une famille \suite{e} est dite \textbf{génératrice} de $E$ si Une famille \suite{e} est dite \textbf{génératrice} de $E$ si
$$\forall v \in E, \exists \lambda \in K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$$ $$\forall v \in E, \exists \lambda \in \K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$$
\end{definition_sq} \end{definition_sq}
\langsubsection{Bases}{Basis} \label{definition:vector_space_basis} \langsubsection{Bases}{Basis} \label{definition:vector_space_basis}
\begin{definition_sq} \begin{definition_sq}
Une famille est appelée une \textbf{base} de $E$ si elle est libre \ref{definition:vector_space_free_family} et génératrice \ref{definition:vector_space_generating_family} $\equivalence \forall v \in E, \exists! \lambda \in K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$ Une famille est appelée une \textbf{base} de $E$ si elle est libre \ref{definition:vector_space_free_family} et génératrice \ref{definition:vector_space_generating_family} $\equivalence \forall v \in E, \exists! \lambda \in \K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$
\end{definition_sq} \end{definition_sq}
\subsection{Dimension} \label{definition:vector_space_dimension} \subsection{Dimension} \label{definition:vector_space_dimension}
@ -229,12 +286,12 @@ Une famille est appelée une \textbf{base} de $E$ si elle est libre \ref{definit
\langsubsection{Sous-espaces vectoriels}{Sub vector spaces} \label{definition:sub_vector_space} \langsubsection{Sous-espaces vectoriels}{Sub vector spaces} \label{definition:sub_vector_space}
%TODO Complete subsection %TODO Complete subsection
Soit $E$ un $\K$-espace vectoriel \ref{definition:vector_space}, $F$ est une sous-espace vectoriel (i.e. « s.e.v ») si $F \subset E$ ainsi que les propriétés suivantes : Soit $E$ un $\K$-espace vectoriel \ref{definition:vector_space}, $F$ est un sous-espace vectoriel (i.e. « s.e.v ») si $F \subset E$ ainsi que les propriétés suivantes :
\begin{itemize} \begin{itemize}
\item{$F \ne \emptyset$} \item{$F \ne \emptyset$}
\item{$0_E \in F$} \item{$0_E \in F$}
\item{$\forall(\alpha, \beta) \in \K, \forall(x,y)\in F, \alpha x + \beta y \in F$} \item{$\forall(\alpha, \beta) \in \K^2, \forall(x, y)\in F^2, \alpha x + \beta y \in F$}
\end{itemize} \end{itemize}
\begin{theorem_sq} \label{theorem:union_sub_vector_spaces} \begin{theorem_sq} \label{theorem:union_sub_vector_spaces}
@ -271,73 +328,84 @@ $\implies F \subset G \lor G \subset F$
\end{proof} \end{proof}
\langsubsection{Application linéaire}{Linear maps} \label{definition:linearity} \langsubsection{Application linéaire}{Linear map} \label{definition:linearity}
Une application linéaire est un morphisme \ref{definition:morphism} \begin{definition_sq} \label{defintion:linear_map}
appliqué à la catégorie \ref{definition:category} Une application $\function{f}{\K}{\K}$ est une \textbf{application linéaire} d'un $\K$-espace vectoriel $E$ si il respecte les axiomes suivants :
des espaces vectoriels \ref{definition:vector_space}. \begin{itemize}
\item{\lang{Additivité}{Additivity} : $\forall(x, y) \in E^2, f(x + y) = f(x) + f(y)$}
\item{\lang{Homogénéité}{Homogeneity} : $\forall a \in \K, \forall x \in E, f(a x) = a f(x)$}
\end{itemize}
\langsubsubsection{Axiomes}{Axioms} \lang{Ou de manière plus succincte}{Or a faster way)} : $\forall a \in \K, \forall(x, y) \in E^2, f(x + a y) = f(x) + a f(y)$
Given $f: \mathbb{K} \rightarrow \mathbb{K}$ Une application linéaire donc est un morphisme \ref{definition:morphism} appliqué à la catégorie \ref{definition:category} des espaces vectoriels \ref{definition:vector_space}.
\begin{itemize} \end{definition_sq}
\item{Additivity: $\forall(x,y) \in \mathbb{K}, f(x+y)=f(x)+f(y)$}
\item{Homogeneity: $\forall(a,x) \in \mathbb{K}, f(ax)=af(x)$}
\item{Or (a faster way): $\forall(a,x,y) \in \mathbb{K}, f(x + ay) = f(x) + af(y)$}
\end{itemize}
\langsubsection{Forme bilinéaire}{Bilinear form} \langsubsection{Forme bilinéaire}{Bilinear form}
\langsubsubsection{Axiomes}{Axioms}
\begin{definition_sq} \label{definition:bilinear_form} \begin{definition_sq} \label{definition:bilinear_form}
Une forme bilinéaire est une application $\function{B}{E^2}{K}$ sur un $\K$-espace vectoriel $E$ qui est linéaire sur les deux arguments tel qui respecte les axiomes suivants : Une forme bilinéaire est une application $\function{B}{E^2}{\K}$ sur un $\K$-espace vectoriel $E$ qui est linéaire sur les deux arguments tel qui respecte les axiomes suivants :
$u,v,w \in E, a \in K$ $\forall (u, v, w) \in E^3, \forall a \in \K$
\begin{itemize} \begin{itemize}
\item{$B(u + v,w) = B(u,w) + B(v,w)$} \item{$B(u + v, w) = B(u, w) + B(v, w)$}
\item{$B(au,w) = B(u,aw) = aB(u,w)$} \item{$B(a u, w) = B(u, a w) = a B(u, w)$}
\item{$B(u,w + v) = B(u,v) + B(u,w)$} \item{$B(u, w + v) = B(u, v) + B(u, w)$}
\end{itemize} \end{itemize}
\end{definition_sq} \end{definition_sq}
\begin{definition_sq} \label{definition:symmetric_bilinear_form}
Une forme bilinéaire \ref{definition:bilinear_form} $\function{B}{E^2}{\K}$ est dite \textbf{symétrique} si $\forall (u, v) \in E^2, B(u, v) = B(v, u)$.
\end{definition_sq}
\langsubsection{Produit scalaire}{Inner product} \langsubsection{Produit scalaire}{Inner product}
\begin{definition_sq} \label{definition:inner_product}
Un produit scalaire notée $\innerproduct{-}{-}$ sur un $\K$-espace vectoriel $E$ est une forme bilinéaire \ref{definition:bilinear_form} qui respecte les axiomes suivants :
\begin{itemize}
\item{Symétrie : $\forall(x, y) \in E^2, \innerproduct{x}{y} = \innerproduct{y}{x}$}
\item{Non-dégénérescence : $\forall x \in E, \innerproduct{x}{x} = 0 \implies x = 0$}
\end{itemize}
\end{definition_sq}
\langsubsubsection{Produit scalaire réel}{Real inner product} \langsubsubsection{Produit scalaire réel}{Real inner product}
\langsubsubsubsection{Axiomes}{Axioms} \begin{definition_sq} \label{definition:real_inner_product}
Un produit scalaire réel est un produit scalaire \ref{definition:inner_product} d'un $\R$-espace vectoriel \ref{definition:vector_space}.
\end{definition_sq}
Un produit scalaire notée $\innerproduct{-}{-}$ sur un $\R$-espace vectoriel $E$ est une forme bilinéaire \ref{definition:bilinear_form} qui respecte les axiomes suivants : \langsubsubsection{Produit scalaire complexe}{Complex inner product}
\begin{itemize} \begin{definition_sq} \label{definition:complex_inner_product}
\item{Symétrie : $\forall(x,y) \in E, \innerproduct{x}{y} = \innerproduct{y}{x}$} Un produit scalaire complexe est un produit scalaire \ref{definition:inner_product} d'un $\C$-espace vectoriel \ref{definition:vector_space}.
\item{Non-dégénérescence : $\forall x \in E, \innerproduct{x}{x} = 0 \implies x = 0$} \end{definition_sq}
\end{itemize}
\langsubsection{Norme réelle}{Real norm} \langsubsection{Norme}{Norm}
\langsubsubsection{Axiomes}{Axioms} \begin{definition_sq} \label{definition:norm}
Une norme notée $\norm{.}_E$ sur un $\K$-espace vectoriel \ref{definition:vector_space} $E$ est une application $\function{\norm{.}}{K}{\R_+}$ qui respecte les axiomes suivants :
Une norme notée $\norm{.}_E$ sur un $\R$-espace vectoriel $E$ est une application $\function{\norm{.}}{E}{\R_+}$ qui respecte les axiomes suivants : \begin{itemize}
\item{Séparation : $\forall x \in E, \norm{x} = 0 \implies x = 0$}
\item{Homogénéité : $\forall x \in E, \forall \lambda \in \K, \norm{\lambda x} = \abs{\lambda}\norm{x}$}
\item{Inégalité triangulaire : $\forall (x, y) \in E^2, \norm{x + y} \le \norm{x} + \norm{y}$}
\end{itemize}
\end{definition_sq}
\begin{itemize} \langsubsubsection{Norme réelle}{Real norm}
\item{Séparation : $\forall x \in E, \norm{x} = 0 \implies x = 0$}
\item{Homogénéité : $\forall x \in E, \forall \lambda \in \R \norm{\lambda x} = \abs{\lambda}\norm{x}$}
\item{Inégalité triangulaire : $\forall x,y \in E, \norm{x + y} \le \norm{x} + \norm{y}$}
\end{itemize}
\langsubsection{Norme complexe}{Complex norm} \begin{definition_sq} \label{definition:real_norm}
Une norme réelle est une norme \ref{definition:norm} d'un $\R$-espace vectoriel \ref{definition:vector_space}.
\end{definition_sq}
\langsubsubsection{Axiomes}{Axioms} \langsubsubsection{Norme complexe}{Complex norm}
Une norme notée $\norm{.}_E$ sur un $\C$-espace vectoriel $E$ est une application $\function{\norm{.}}{E}{\C}$ qui respecte les axiomes suivants : \begin{definition_sq} \label{definition:complex_norm}
Une norme complexe est une norme \ref{definition:norm} d'un $\C$-espace vectoriel \ref{definition:vector_space}.
\begin{itemize} \end{definition_sq}
\item{Séparation : $\forall x \in E, \norm{x} = 0 \implies x = 0$}
\item{Homogénéité : $\forall x \in E, \forall \lambda \in \R \norm{\lambda x} = \abs{\lambda}\norm{x}$}
\item{Inégalité triangulaire : $\forall x,y \in E, \norm{x + y} \le \norm{x} + \norm{y}$}
\end{itemize}
\langsubsection{Espace pré-hilbertien}{Pre-hilbertian Space} \langsubsection{Espace pré-hilbertien}{Pre-hilbertian Space}

View File

@ -31,7 +31,7 @@ qu'on appelle \textit{inversion} de centre 0 et de rapport 1.
\item{Montrer que $i$ est une bijection de $E \setminus \{0\}$ sur lui-même, vérifiant $i \composes i = id_E$} \item{Montrer que $i$ est une bijection de $E \setminus \{0\}$ sur lui-même, vérifiant $i \composes i = id_E$}
\begin{proof}\par \begin{proof}\par
Si $i$ est une bijection de $E$ alors il existe une fonction réciproque (ou inverse) $i^{-1}$ telle que $i \composes i^{-1} = id_E$, or $i$ est défini comme son propre inverse. Donc il suffit d'évaluer $i$ avec lui-même pour terminer la preuve. Si $i$ est une bijection de $E$ alors il existe une fonction réciproque (ou inverse) $i^{-1}$ telle que $i \composes i^{-1} = id_E$, or $i$ est défini comme son propre inverse. Donc, il suffit d'évaluer $i$ avec lui-même pour terminer la preuve.
$$i \composes i = \frac{\frac{x}{\norm{x}^2}}{\norm{\frac{x}{\norm{x}^2}}^2} = \frac{\frac{x}{\norm{x}^2}}{\frac{\norm{x}^2}{\norm{x}^4}} = \frac{\norm{x}^2 x}{\norm{x}^2} = x = id_E$$ $$i \composes i = \frac{\frac{x}{\norm{x}^2}}{\norm{\frac{x}{\norm{x}^2}}^2} = \frac{\frac{x}{\norm{x}^2}}{\frac{\norm{x}^2}{\norm{x}^4}} = \frac{\norm{x}^2 x}{\norm{x}^2} = x = id_E$$
\end{proof} \end{proof}
@ -66,7 +66,7 @@ qu'on appelle \textit{inversion} de centre 0 et de rapport 1.
\item{En déduire que pour tous $a,b,c,d \in E \setminus \{0\}$, on a $$\norm{a - c}\norm{b - d} \le \norm{a - b}\norm{c - d} + \norm{a - d}\norm{b - c}$$ C'est l'\textit{inégalité de Ptolémée}.} \item{En déduire que pour tous $a,b,c,d \in E \setminus \{0\}$, on a $$\norm{a - c}\norm{b - d} \le \norm{a - b}\norm{c - d} + \norm{a - d}\norm{b - c}$$ C'est l'\textit{inégalité de Ptolémée}.}
\bigskip \bigskip
Pour cette preuve nous aurons besoin de ce lemme : Pour cette preuve, nous aurons besoin de ce lemme :
\begin{lemme_sq} \label{norm_diff_symetry} \begin{lemme_sq} \label{norm_diff_symetry}
$\forall (e,f) \in E, \norm{e - f} = \norm{f - e}$ $\forall (e,f) \in E, \norm{e - f} = \norm{f - e}$
\begin{proof}\par \begin{proof}\par
@ -81,7 +81,7 @@ qu'on appelle \textit{inversion} de centre 0 et de rapport 1.
\begin{proof}\par \begin{proof}\par
Soit $a,b,c,d \in E$. Soit $a,b,c,d \in E$.
Comme $E$ est un espace vectoriel et donc un groupe par $E(+)$. Comme $E$ est un espace vectoriel et de ce fait un groupe par $E(+)$.
Posons $x,y,z \in E$ tel que $x := a - c$, $y := a - b$ et $z := a - d$. Posons $x,y,z \in E$ tel que $x := a - c$, $y := a - b$ et $z := a - d$.
@ -100,12 +100,12 @@ qu'on appelle \textit{inversion} de centre 0 et de rapport 1.
$$\norm{a - c}\norm{b - d} \le \norm{a - b}\norm{c - d} + \norm{a - d}\norm{b - c}$$ $$\norm{a - c}\norm{b - d} \le \norm{a - b}\norm{c - d} + \norm{a - d}\norm{b - c}$$
\end{proof} \end{proof}
Soit $u \in E$ tel que $\norm{u} = 1$ et soit $\alpha \ne 0$. Considérons $H = \{ x \in E | \innerproduct{x}{u} = \alpha \}$. C'est un hyperplan affine de $E$. Soit $u \in E$ tel que $\norm{u} = 1$ et soit $\alpha \ne 0$. Considérons $H = \{ x \in E \mid \innerproduct{x}{u} = \alpha \}$. C'est un hyperplan affine de $E$.
\item{Justifier que $0 \notin H$. En utilisant la question 3, montrer alors que $i(H) = S \setminus \{0\}$, où $$S = \lbrace x \in E | \Norm{x - \frac{1}{2\alpha}u} = \frac{1}{2\abs{\alpha}} \rbrace$$} \item{Justifier que $0 \notin H$. En utilisant la question 3, montrer alors que $i(H) = S \setminus \{0\}$, où $$S = \lbrace x \in E \mid \Norm{x - \frac{1}{2\alpha}u} = \frac{1}{2\abs{\alpha}} \rbrace$$}
% TODO Complete 6. % TODO Complete 6.
Soient $a \in E$ et $R > 0$. On note $S(a,R) = \{ x \in E | \norm{x - a} = R\}$ la sphère de centre $a$ et de rayon $R$. Soient $a \in E$ et $R > 0$. On note $S(a,R) = \{ x \in E \mid \norm{x - a} = R\}$ la sphère de centre $a$ et de rayon $R$.
\item{On suppose que $\norm{a} \ne R$. Montrer que $0 \notin S(a,R)$ et que $$ i(S(a,R)) = S(\frac{a}{\norm{a}^2 - R^2}, \frac{R}{\abs{\norm{a}^2 - R^2}})$$} \item{On suppose que $\norm{a} \ne R$. Montrer que $0 \notin S(a,R)$ et que $$ i(S(a,R)) = S(\frac{a}{\norm{a}^2 - R^2}, \frac{R}{\abs{\norm{a}^2 - R^2}})$$}
% TODO Complete 7. % TODO Complete 7.

View File

@ -18,7 +18,7 @@ A morphism $f$ on a category $\Cat$ is a transformation between a domain and a c
\langsubsection{Section et rétraction}{Section and retraction} \langsubsection{Section et rétraction}{Section and retraction}
let $\function{f}{X}{Y}$ and $\function{g}{Y}{X}$ such that $f \composes g = \text{id}_Y$ let $\function{f}{X}{Y}$ and $\function{g}{Y}{X}$ such that $f \composes g = \identity_Y$
$f$ is a retraction of $g$ and $g$ is a section of $f$. $f$ is a retraction of $g$ and $g$ is a section of $f$.
@ -33,7 +33,7 @@ Right inverse of a morphism, is the dual of a retraction. A section that is also
\langsubsubsection{Rétraction}{Retraction} \langsubsubsection{Rétraction}{Retraction}
Left inverse of a morphism, is the dual of a section. A retraction that is also an monomorphism is an isomorphism Left inverse of a morphism, is the dual of a section. A retraction that is also a monomorphism is an isomorphism
\langsubsection{Epimorphisme}{Epimorphism} \label{definition:epimorphism} \langsubsection{Epimorphisme}{Epimorphism} \label{definition:epimorphism}
%TODO Complete section %TODO Complete section
@ -42,7 +42,7 @@ Source: \citeannexes{wikipedia_epimorphism}
Let $\function{f}{X}{Y}$ and $\function{g_1,g_2}{Y}{Z}$ Let $\function{f}{X}{Y}$ and $\function{g_1,g_2}{Y}{Z}$
An epimorphism is a morphism that is right-cancellative i.e. $g_1 \composes f = g_2 \composes f \implies g_1 = g_2$ An epimorphism is a morphism that is right-cancellable i.e. $g_1 \composes f = g_2 \composes f \implies g_1 = g_2$
\begin{tikzcd} \begin{tikzcd}
X \arrow[r, "f"] & Y \arrow[r, "g_1", shift left=1ex] \arrow[r, "g_2", shift right=1ex] & Z X \arrow[r, "f"] & Y \arrow[r, "g_1", shift left=1ex] \arrow[r, "g_2", shift right=1ex] & Z
@ -70,6 +70,19 @@ An automorphism is a morphism that is both an isomorphism \ref{definition:isomor
\langsubsection{Homomorphisme}{Homomorphism} \langsubsection{Homomorphisme}{Homomorphism}
%TODO Complete section %TODO Complete section
\begin{definition_sq} \label{definition:homomorphism}
A homomorphism is a morphism between two categories that keeps algebraic structures. Let $(X, \star)$ and $(Y, \composes)$ two algebraic structures and let $\function{\phi}{X}{Y}$.
$$\forall (x, y) \in X^2, \phi(x \star y) = \phi(x) \composes \phi(y)$$
Similarly, such that the following diagram commutes :
\begin{tikzcd}
X \cartesianProduct X \arrow[r, "\phi \cartesianProduct \phi"] \arrow[d, "\star"] & Y \cartesianProduct Y \arrow[d, "\composes"] \\
X \arrow[r, "\phi"] & Y
\end{tikzcd}
\end{definition_sq}
Source: \citeannexes{wikipedia_homomorphism} Source: \citeannexes{wikipedia_homomorphism}
\langsubsection{Homeomorphisme}{Homeomorphism} \langsubsection{Homeomorphisme}{Homeomorphism}

View File

@ -0,0 +1,122 @@
\langchapter{Analyse Complexe}{Complex Analysis}
L'analyse complexe vise à utiliser les outils d'analyse réels dans le corps des complexes comme les suites, dérivés, intégrales etc.
\langsection{Définition du corps des complexes}{Definition of the complex field}
Les nombres complexes sont soit définis comme un tuple de $\R^2$ avec un nombre $i$ tel que $i^2 = -1$ avec la fonction $f$ suivante :
\begin{paracol}{2}
$$\function{f}{\R^2}{\C}$$
$$\functiondef{(a, b)}{a + ib}$$
\switchcolumn
$$\function{p}{\R_+ \cartesianProduct \R/2\pi}{\C}$$
$$\functiondef{(r, \theta)}{r e^{i \theta}}$$
\end{paracol}
\begin{paracol}{2}
On dit alors que la partie $a$ est la \textbf{partie réelle} et $b$ la \textbf{partie imaginaire} et cette représentation est la \textbf{forme rectangulaire} du nombre complexe, on peut également utiliser la représentation en \textbf{forme polaire} de la fonction $p$
Selon le contexte, on peut écrire les nombres complexes sous leur forme canonique (typiquement notée $z$) ou dans sa forme aux parties réelle et imaginaire. Également, les nombres complexes peuvent être représentées dans un plan cartésien de base $(1, i)$.
\switchcolumn
\[\begin{tikzpicture}
\begin{scope}[thick,font=\scriptsize]
% (1, 2) point
\path [fill, semitransparent] (0.8, 1.7) circle (0.05);
\node [below right] at (0.8, 2) {$0.8 + 1.7i$};
\draw [gray,thick] (0, 1.7) -- (0.8, 1.7);
\draw [gray,thick] (0.8, 0) -- (0.8, 1.7);
% (1.2 -sqrt{2}) point
\path [fill, semitransparent] (1.2, -1.4) circle (0.05);
\node [below right] at (1.2, -1.4) {$1.2 - 1.4i$};
\draw [gray,thick] (0, 0) -- (1.2, -1.4);
\draw [gray,thick,domain=0:-50] plot ({cos(\x) / 2.2}, {sin(\x) / 2.2});
% (-1, -1) point
\path [fill, semitransparent] (-1, -1) circle (0.05);
\node [below left] at (-1, -1) {$-1 - i$};
\draw [gray,thick] (0, -1) -- (-1, -1);
\draw [gray,thick] (-1, 0) -- (-1, -1);
% (-1.7 2.3) point
\path [fill, semitransparent] (-1.2, 2.3) circle (0.05);
\node [above left] at (-1.2, 2.3) {$-1.2 + 2.3i$};
\draw [gray,thick] (0, 0) -- (-1.2, 2.3);
\draw [gray,thick,domain=0:117] plot ({cos(\x) / 1.6}, {sin(\x) / 1.6});
% Axes
\draw [->] (-3, 0) -- (3, 0) node [above left] {$\Re(z)$};
\draw [->] (0, -3) -- (0, 3) node [below right] {$\Im(z)$};
% Axes label
\foreach \n in {-2,-1,1,2}{%
\draw (\n, -3pt) -- (\n, 3pt) node [above] {$\n$};
\draw (-3pt, \n) -- (3pt, \n) node [right] {$\n i$};
}
\end{scope}
\end{tikzpicture}\]
\end{paracol}
Ces parties peuvent également être extraites avec les fonctions suivantes :
\begin{paracol}{2}
$$\function{\Re}{\C}{\C}$$
$$\functiondef{(a, b)}{a}$$
\switchcolumn
$$\function{\Im}{\C}{\C}$$
$$\functiondef{(a, b)}{b}$$
\end{paracol}
\begin{theorem_sq}
$\C \isomorphic \R^2$
\end{theorem_sq}
\begin{proof}
Posons la fonction $g$ suivante :
$$\function{g}{\C}{\R^2}$$
$$\functiondef{z}{(\Re(z), \Im(z))}$$
On peut en conclure en utilisant la fonction $f$ précédente les propositions suivantes :
$$f \composes g \composes \Identity_\C \equivalence \forall z \in \C, f(g(z)) = f((a, b)) = z$$
$$g \composes f \composes \Identity_{\R \cartesianProduct \R} \equivalence \forall (a, b) \in \R^2, g(f((a, b))) = g(z) = (a, b)$$
\end{proof}
Nous pouvons ensuite définir les opérations $(+)$ et $(\cdot)$ prenant les propriétés du corps analogue des réels
\begin{paracol}{2}
$$\function{(+)}{\C^2}{\C}$$
$$\functiondef{(a + ib, c + id)}{(a + c) + i(b + d)}$$
\switchcolumn
$$\function{(\cdot)}{C^2}{\C}$$
$$\functiondef{(a + ib, c + id)}{(ac - bd) + i(ad + bc)}$$
\end{paracol}
\begin{theorem_sq}
$(\C, +, \cdot)$ est un corps commutatif \ref{definition:commutative_field}.
\end{theorem_sq}
\begin{proof}
Soit $(\C, +, \cdot)$, les propriétés sont directement héritées de $\R^2$.
% TODO Add proof details
\end{proof}
\begin{theorem_sq}
$\C$ est un $\C$-espace vectoriel \ref{definition:vector_space} de dimension \ref{definition:vector_space_dimension} 1.
\end{theorem_sq}
\begin{proof}
Les propriétés sont directement héritées de l'espace vectoriel \ref{definition:vector_space} $\R^2$.
% TODO Add proof details
\end{proof}
\langsection{Fonctions holomorphes}{Holomorphic functions}
Avant de définir les fonctions holomorphes, il est nécessaire de faire un pas de côté en étudiant les formes $\C$-linéaires \ref{definition:linear_map}.
\begin{theorem_sq}
Les formes $\C$-linéaires sont de la forme
$\begin{bmatrix} a & -b \\ b & a \end{bmatrix}$
\end{theorem_sq}

View File

@ -7,9 +7,32 @@ $$(t,Y) \in \Omega, t \in \R, Y \in \K^n, Y^{(1)} = f(t,Y)$$
La variable $t$ est appelée la \textit{variable de temps} et la variable $Y$ la \textit{variable d'état} puisqu'elle décrit les différents états du système. La variable $t$ est appelée la \textit{variable de temps} et la variable $Y$ la \textit{variable d'état} puisqu'elle décrit les différents états du système.
\section{Linéaire homogéne} \begin{definition_sq} \label{definition:differential_equations}
%TODO Complete section On appelle \textbf{équation différentielle} $(\mathcal{E}_n)$ d'ordre $n \in \N^*$ d'un corps $\K^N$ de dimension $N \in \N^*$ définie sur $I$ un ouvert de $\R \cartesianProduct (\K^N)^n$ et $\function{f}{I}{\K^N}$ tel que
\section{Non-linéaire homogéne} $$y^{(n)} = f(t, y, y', \cdots, y^{(n - 1)})$$
%TODO Complete section
Pour $(t, y, y', \cdots, y^{(n - 1)}) \in I, t \in \R, y \in \K^N$.
La variable $t$ est appelée \textbf{variable temporelle} et la variable $y$ \textbf{variable d'état}.
\end{definition_sq}
\begin{definition_sq} \label{definition:differential_equations_solution}
On appelle \textbf{solution d'équation différentielle} $(\mathcal{E}_n)$ un couple $(J, y)$$J \subseteq I$ est un intervalle de $\R$ et $y$ une fonction $n$ fois dérivable $\function{y}{J}{\K^N}$ telle que :
$$\forall t \in J, (t, y(t), y'(t), \cdots, y^{(n - 1)}(t)) \in I$$
$$\forall t \in J, y^{(n)}(t) = f(t, y(t), y'(t), \cdots, y^{(n - 1)}(t))$$
\end{definition_sq}
\begin{definition_sq} \label{definition:chauchy_problem}
On appelle \textbf{problème de Cauchy} un couple $(t_0, y_0) \in I$ des données initiales consistant à trouver la (ou les) solution(s) $y$ de $(\mathcal{E})$ sur un intervalle $I$ telle(s) que $t_0 \in I$ et $y(t_0) = y_0$. On dit que la condition $y(t_0) = y_0$ est la \textbf{condition initiale} ou \textbf{condition de Cauchy}.
\end{definition_sq}
\langsection{Cas linéaire}{Linear case}
\begin{definition_sq} \label{definition:linear_differential_equation}
On dit que l'équation différentielle \ref{definition:differential_equations} $y' = f(t, y)$ est une \textbf{équation différentielle linéaire} si $f(t, y) = A(t)y + B(t)$$A$ et $B$ sont des fonctions du temps à valeurs respectives dans $M_N(\K)$ et $K^N$. Les autres formes d'équations différentielles sont qualifiées de non linéaires.
\end{definition_sq}
\begin{definition_sq} \label{definition:linear_homogenous_differential_equation}
Lorsque l'équation différentielle linéaire \ref{definition:linear_differential_equation} $y' = A(t)y + B(t)$ avec $B = 0$ on parle \textbf{d'équation différentielle linéaire homogène} (ou sans second membre). Si $B$ est non identiquement nulle, on parle d'équation différentielle linéaire avec second membre.
\end{definition_sq}

View File

@ -21,58 +21,63 @@ Université Côte d'Azûr
\subsection*{Un premier exemple d'étude de système dynamique} \subsection*{Un premier exemple d'étude de système dynamique}
% Emmanuel Militon % Emmanuel Militon
Dans la théorie des systèmes dynamiques, on modélise un système qui dépend du temps (discret) à l'aide d'une application $\function{T}{X}{X}$. On appellera une telle application un système dynamique. Un point qui se trouve en $x \in X$ à l'instant $0$ se trouve en $T(x)$ à l'instant $1$ puis en $T^2(x) = T \composes T(x)$ à l'instant $2$ et ainsi de suite. On appelle orbite d'un tel système dynamique l'ensemble $\{ T^n(x) | n > 0 \}$. L'objet de la théorie des systèmes dynamiques est de comprendre le comportement asymptotique des orbites de tels systèmes. Dans la théorie des systèmes dynamiques, on modélise un système qui dépend du temps (discret) à l'aide d'une application $\function{T}{X}{X}$. On appellera une telle application un système dynamique. Un point qui se trouve en $x \in X$ à l'instant $0$ se trouve en $T(x)$ à l'instant $1$ puis en $T^2(x) = T \composes T(x)$ à l'instant $2$ et ainsi de suite. On appelle orbite d'un tel système dynamique l'ensemble $\{ T^n(x) \mid n > 0 \}$. L'objet de la théorie des systèmes dynamiques est de comprendre le comportement asymptotique des orbites de tels systèmes.
Dans ce sujet introductif, on va s'intéresser au cas où $X = [0, 1]$ et $T$ est l'application $\function{T}{x}{mx \mod 1}$, avec $m \ge 2$ entier. L'étude de ce système dynamique est étroitement relié à l'écriture d'un nombre en base $m$. On va chercher à comprendre quels sont les points périodiques de ce système (c'est-à-dire les points $x \in [0, 1]$ tels qu'il existe $n \ge 1$ avec $T^n(x) = x$). On va ensuite chercher, s'il en existe, des orbites denses dans $[0, 1]$ puis quels sont les ensembles invariants (les parties $F$ de $[0, 1]$ telles que $T(F) = F$ de sorte qu'une orbite qui démarre dans $F$ reste dans $F$). Ensuite, si le temps le permet on va relier l'étude de ces systèmes dynamiques avec l'étude des systèmes dynamiques de la forme Dans ce sujet introductif, on va s'intéresser au cas où $X = [0, 1]$ et $T$ est l'application $\function{T}{x}{mx \mod 1}$, avec $m \ge 2$ entier. L'étude de ce système dynamique est étroitement relié à l'écriture d'un nombre en base $m$. On va chercher à comprendre quels sont les points périodiques de ce système (c'est-à-dire les points $x \in [0, 1]$ tels qu'il existe $n \ge 1$ avec $T^n(x) = x$). On va ensuite chercher, s'il en existe, des orbites denses dans $[0, 1]$ puis quels sont les ensembles invariants (les parties $F$ de $[0, 1]$ telles que $T(F) = F$ de sorte qu'une orbite qui démarre dans $F$ reste dans $F$). Ensuite, si le temps le permet, on va relier l'étude de ces systèmes dynamiques avec l'étude des systèmes dynamiques de la forme
$$\function{T}{[0, 1]}{[0, 1]}$$ $$\function{T}{[0, 1]}{[0, 1]}$$
$$\functiondef{x}{\lambda x(1 - x)}$$ $$\functiondef{x}{\lambda x(1 - x)}$$
avec $0 < \lambda \le 4$. avec $0 < \lambda \le 4$.
\subsubsection*{Premier pas ...} \subsubsection*{Premier pas}
Pour l'instant, nous nous intéressont à la fonction suivante : Pour l'instant, nous nous intéresserons à la fonction suivante :
$$\function{T_b}{[0, 1]}{[0, 1]}$$ $$\function{T_b}{[0, 1]}{[0, 1]}$$
$$\functiondef{x}{b x \mod 1}$$ $$\functiondef{x}{b x \mod 1}$$
Par induction sur le nombre d'application successives $n$ on trouve immédiatement que $T_b^n = b^n x \mod 1$ Par induction sur le nombre d'applications successives $n$ on trouve immédiatement que $T_b^n = b^n x \mod 1$
En écrivant $x \in [0, 1]$ en écriture décimale en base $b$ i.e. En écrivant $x \in [0, 1]$ en écriture décimale en base $b$ i.e.
$$x $$x
= \sum\limits_{i = 1}^{+\infty} \frac{d_i}{b^i} = \sum\limits_{i = 1}^{+\infty} \frac{d_i}{b^{i + 1}}
= 0. d_1 d_2 d_3 \cdots d_m \cdots$$ = 0. d_0 d_1 d_2 \cdots d_m \cdots$$
avec $\forall i \in N^*, d_i \in \discreteInterval{0, b - 1}$, en appliquant $T_b$ cela donne avec $\forall i \in \N, d_i \in \discreteInterval{0, b - 1}$, en appliquant $T_b$ cela donne
$$T_b(x) $$T_b(x)
= b \sum\limits_{i = 1}^{+\infty} \frac{d_i}{b^i} \mod 1 = b \sum\limits_{i = 1}^{+\infty} \frac{d_i}{b^{i + 1}} \mod 1
= d_1 \sum\limits_{i = 1}^{+\infty} \frac{d_{i + 1}}{b^i} \mod 1 = d_1 + \sum\limits_{i = 1}^{+\infty} \frac{d_{i + 1}}{b^{i + 1}} \mod 1
= \sum\limits_{i = 1}^{+\infty} \frac{d_{i + 1}}{b^i} \mod 1 = \sum\limits_{i = 1}^{+\infty} \frac{d_{i + 1}}{b^{i + 1}} \mod 1
= 0. d_2 d_3 d_4 \cdots d_{m + 1} \cdots$$ = 0. d_1 d_2 d_3 \cdots d_{m + 1} \cdots$$
Cela est équivalent à glisser les décimales vers la gauche. Donc pour étudier les orbites de $T_b$ cela revient à étudier la périodicités des décimales $d_i$, hors, si une périodicité existe, le nombre $x$ est nécéssairement rationnel \ref{theorem:repeating_decimals}. Cela est équivalent à glisser les décimales vers la gauche. Donc pour étudier les orbites de $T_b$ cela revient à étudier la périodicité des décimales $d_i$, hors, si une périodicité existe, le nombre $x$ est nécessairement rationnel \ref{theorem:repeating_decimals}.
\begin{theorem_sq} \begin{theorem_sq}
Le tuple $([0, 1], d)$ avec la fonction $d$ défini comme : Le tuple $([0, 1], d)$ avec la fonction $d$ défini comme :
$$\function{d}{[0, 1]^2}{\R_+}$$ $$\function{d}{[0, 1]^2}{\R_+}$$
$$\functiondef{(x, y)}{\sum\limits_{i = 1}^{+\infty} \frac{\abs{x_i - y_i}}{b^i}}$$ $$\functiondef{(x, y)}{\sum\limits_{i = 1}^{+\infty} \frac{\abs{x_i - y_i}}{b^{i + 1}}}$$
est un espace métrique. est un espace métrique.
\end{theorem_sq} \end{theorem_sq}
\begin{proof} \begin{proof}
Comme $[0, 1]$ est habité, il suffit de montrer que la fonction $d$ est nul pour la distance un élément et lui même, symétrique et respecte l'inégalité triangulaire. Comme cette fonction est basé sur la métrique $\norm{.}_1$, les preuves sont immédiates : Comme $[0, 1]$ est habité, il suffit de montrer que la fonction $d$ est une métrique. Comme cette fonction est basée sur la métrique $\norm{.}_1$, les preuves sont immédiates :
\begin{itemize} \begin{itemize}
\item{Nul avec un élément et lui même : $\forall x \in [0, 1], d(x, x) \item{Nul avec un élément et lui-même : $\forall x \in [0, 1], d(x, x)
= \sum\limits_{i = 1}^{+\infty} \frac{\abs{x_i - x_i}}{b^i} = \sum\limits_{i = 0}^{+\infty} \frac{\abs{x_i - x_i}}{b^{i + 1}}
= \sum\limits_{i = 1}^{+\infty} \frac{0}{b^i} = \sum\limits_{i = 0}^{+\infty} \frac{0}{b^{i + 1}}
= 0$} = 0$}
\item{Symétrie : $\forall (x, y) \in [0, 1]^2, d(x, y) \item{Symétrie : $\forall (x, y) \in [0, 1]^2, d(x, y)
= \sum\limits_{i = 1}^{+\infty} \frac{\abs{x_i - y_i}}{b^i} = \sum\limits_{i = 0}^{+\infty} \frac{\abs{x_i - y_i}}{b^{i + 1}}
= \sum\limits_{i = 1}^{+\infty} \frac{\abs{y_i - x_i}}{b^i} = \sum\limits_{i = 0}^{+\infty} \frac{\abs{y_i - x_i}}{b^{i + 1}}
= d(y, x)$} = d(y, x)$}
\item{Inégalité triangulaire : $\forall (x, y, z) \in [0, 1]^3, d(x, y) \item{Inégalité triangulaire : $\forall (x, y, z) \in [0, 1]^3, d(x, y)
= \sum\limits_{i = 1}^{+\infty} \frac{\abs{x_i - y_i}}{b^i} = \sum\limits_{i = 0}^{+\infty} \frac{\abs{x_i - y_i}}{b^{i + 1}}
\le \sum\limits_{i = 1}^{+\infty} \frac{\abs{x_i - z_i} + \abs{z_i - y_i}}{b^i} \le \sum\limits_{i = 0}^{+\infty} \frac{\abs{x_i - z_i} + \abs{z_i - y_i}}{b^{i + 1}}
= \sum\limits_{i = 1}^{+\infty} \frac{\abs{x_i - z_i}}{b^i} + \sum\limits_{i = 1}^{+\infty} \frac{\abs{z_i - y_i}}{b^i} = \sum\limits_{i = 0}^{+\infty} \frac{\abs{x_i - z_i}}{b^{i + 1}} + \sum\limits_{i = 1}^{+\infty} \frac{\abs{z_i - y_i}}{b^{i + 1}}
= d(x, z) + d(z, y)$} = d(x, z) + d(z, y)$}
\end{itemize} \end{itemize}
\end{proof} \end{proof}
\begin{definition_sq}
Un endomorphisme continue d'un espace topologique $(E, \tau_E)$ est dit \textbf{topologiquement transitif} si pour toute paire d'ouverts non-vide $U, V \subseteq E$ il existe $n \in \N$ tel que $f^n(U) \intersection V \ne \emptyset$.
\end{definition_sq}

View File

@ -45,7 +45,7 @@
\item{5 subparagraph} \item{5 subparagraph}
\end{itemize} \end{itemize}
\langsubsection{Ajouter une partie numéroté}{Add a labeled part} \langsubsection{Ajouter une partie numérotée}{Add a labeled part}
% TODO Find a way to localize verbatim % TODO Find a way to localize verbatim
\begin{verbatim} \begin{verbatim}
@ -54,7 +54,7 @@
etc. etc.
\end{verbatim} \end{verbatim}
\langsubsection{Ajouter une partie non-numéroté}{Add a non labeled part} \langsubsection{Ajouter une partie non numérotée}{Add a non labeled part}
\begin{verbatim} \begin{verbatim}
\part*{Nom de la partie} \part*{Nom de la partie}

View File

@ -30,7 +30,7 @@ Une relation $\Rel$ sur $E$ est dite \textbf{transitive} si et seulement si $\fo
\langsubsection{Associativité}{Associativity} \label{definition:associativity} \langsubsection{Associativité}{Associativity} \label{definition:associativity}
% TODO Complete subsection % TODO Complete subsection
Une relation $\Rel$ sur $E$ est dite \textbf{associative} si et seulement si $\forall (a,b) \in E$, $(a \Rel b) \Rel c \equivalence a \Rel (b \Rel c) \Leftrightarrow a \Rel b \Rel c$. Une relation $\Rel$ sur $E$ est dite \textbf{associative} si et seulement si $\forall (a,b) \in E$, $(a \Rel b) \Rel c \equivalence a \Rel (b \Rel c) \equivalence a \Rel b \Rel c$.
\langsubsection{Commutativité}{Commutativity} \label{definition:commutativity} \langsubsection{Commutativité}{Commutativity} \label{definition:commutativity}
% TODO Complete subsection % TODO Complete subsection

View File

@ -55,7 +55,7 @@ De manière intuitive, on pourrait croire que prendre une sous-partie infini de
La sous-partie des nombres paires est définie par les nombres de $\N$ qui sont dites paires, autrement dit qui sont de la forme La sous-partie des nombres paires est définie par les nombres de $\N$ qui sont dites paires, autrement dit qui sont de la forme
$\N_{2} = \{2n | n \in \N\}$ $\N_{2} = \{2n \mid n \in \N\}$
Ou Ou
@ -104,7 +104,7 @@ $\Z := \{\dots,-3,-2,-1,0,1,2,3,\dots\} = \Union_{n \in \N} n \union \Union_{n \
\langsubsection{Dénombrabilité}{Countability} \langsubsection{Dénombrabilité}{Countability}
De manière intuitive, on pourrait croire que cette ensemble est "deux fois la taille" de $\N$ mais on peux démontrer que cela n'est pas le cas. De manière intuitive, on pourrait croire que cet ensemble est "deux fois la taille" de $\N$, mais on peut démontrer que cela n'est pas le cas.
\begin{theorem_sq} \label{theorem:countability_integers} \begin{theorem_sq} \label{theorem:countability_integers}
L'ensemble $\Z$ est dénombrable. L'ensemble $\Z$ est dénombrable.
@ -136,7 +136,7 @@ $\Q := (p,q) = \Z \cartesianProduct \N^*$
\langsubsection{Relations binaries}{Binary relations} \langsubsection{Relations binaries}{Binary relations}
%TODO Complete subsection %TODO Complete subsection
$\forall (p,q) \in \Q, \forall n \in \N^*, \frac{p}{q} \Leftrightarrow \frac{p \cdot n}{q \cdot n}$ $\forall (p,q) \in \Q, \forall n \in \N^*, \frac{p}{q} \equivalence \frac{p \cdot n}{q \cdot n}$
\langsubsection{Opérateurs}{Operators} \langsubsection{Opérateurs}{Operators}
%TODO Complete subsection %TODO Complete subsection
@ -160,23 +160,15 @@ $\frac{p}{q} = \frac{m}{n} \land \frac{m}{n} = \frac{a}{b} \Rightarrow \frac{p}{
Let $\forall (p,q), (m,n) \in \Q, \frac{p}{q} = \frac{m}{n} \land \frac{m}{n} = \frac{a}{b}$ Let $\forall (p,q), (m,n) \in \Q, \frac{p}{q} = \frac{m}{n} \land \frac{m}{n} = \frac{a}{b}$
$\implies pn = qm \land mb=na$ $$\implies pn = qm \land mb=na \implies pnmb = qmna \implies pmb = qma$$
$\implies pnmb = qmna$
$\implies pmb = qma$
if $m \neq 0$ if $m \neq 0$
$\implies pb = qa$ $$\implies pb = qa \implies \frac{p}{q} = \frac{a}{b}$$
$\implies \frac{p}{q} = \frac{a}{b}$
otherwise otherwise
$\implies (pn = 0 \implies p = 0) \land (0 = na \implies a = 0) \implies p = a = 0$ $$\implies (pn = 0 \implies p = 0) \land (0 = na \implies a = 0) \implies p = a = 0 \implies \frac{p}{q} = \frac{a}{b}$$
$\implies \frac{p}{q} = \frac{a}{b}$
By proof by cases $\frac{p}{q} = \frac{a}{b}$ By proof by cases $\frac{p}{q} = \frac{a}{b}$
@ -293,7 +285,7 @@ $i^2 = -1$
\langsubsection{Relations binaries}{Binary relations} \langsubsection{Relations binaries}{Binary relations}
%TODO Complete subsection %TODO Complete subsection
$\forall ((a,b), (c,d)) \in \C, a = c \land b = d \Leftrightarrow a + ib = c + id$ $\forall ((a, b), (c, d)) \in \C, a = c \land b = d \equivalence a + ib = c + id$
\langsubsection{Opérateurs}{Operators} \langsubsection{Opérateurs}{Operators}
%TODO Complete subsection %TODO Complete subsection
@ -410,7 +402,7 @@ Il existe une infinité de nombres premiers.
\lang{Par preuve par contradiction, supposons que le set de nombre premiers set fini.}% \lang{Par preuve par contradiction, supposons que le set de nombre premiers set fini.}%
{By proof by contraction, let suppose that the set of prime numbers is finite.} {By proof by contraction, let suppose that the set of prime numbers is finite.}
Let $\Pn := \{p | p \in \N^* \land p \text{\lang{ est premier}{ is prime}}\}$ and $\omega := (\prod\limits_{p\in \Pn} p) + 1$ Let $\Pn := \{p \mid p \in \N^* \land p \text{\lang{ est premier}{ is prime}}\}$ and $\omega := (\prod\limits_{p\in \Pn} p) + 1$
$\implies \forall p \in \Pn$, $\lnot(p \divides \omega)$ $\implies \forall p \in \Pn$, $\lnot(p \divides \omega)$

View File

@ -3,10 +3,10 @@
Source: \citeannexes{wikipedia_set_theory} Source: \citeannexes{wikipedia_set_theory}
Un ensemble est une construction mathématiques qui réuni plusieurs objets en une même instance. Un ensemble est une construction mathématique qui réuni plusieurs objets en une même instance.
%A set is a mathematical construct to assemble multiple objects in a single instance. %A set is a mathematical construct to assemble multiple objects in a single instance.
$S = \{a,b,c\}$ $S = \{a, b, c\}$
\langsection{Axiomes}{Axioms} \langsection{Axiomes}{Axioms}
%TODO Complete section %TODO Complete section
@ -20,25 +20,25 @@ $\forall A\forall B(\forall X(X \in A \equivalence X \in B) \implies A = B)$
\langsubsection{Ensemble vide}{Empty set} \langsubsection{Ensemble vide}{Empty set}
Il existe un ensemble vide notée $\emptyset$. Il existe un ensemble vide noté $\emptyset$.
\langsubsection{Paire}{Pairing} \langsubsection{Paire}{Pairing}
%TODO Complete subsection %TODO Complete subsection
Source: \citeannexes{wikipedia_ordered_pair} Source : \citeannexes{wikipedia_ordered_pair}
\langsubsubsection{Définition de Wiener}{Wiener's definition} \langsubsubsection{Définition de Wiener}{Wiener's definition}
$(a,b) := \{\{\{a\}, \emptyset\}, \{b\}\}$ $(a, b) := \{\{\{a\}, \emptyset\}, \{b\}\}$
\langsubsubsection{Définition de Hausdorff}{Hausdorff's definition} \langsubsubsection{Définition de Hausdorff}{Hausdorff's definition}
$(a,b) := \{\{a, 1\}, \{b,2\}\}$ where $a \ne 1 \land b \ne 2$ $(a, b) := \{\{a, 1\}, \{b, 2\}\}$ where $a \ne 1 \land b \ne 2$
\langsubsubsection{Définition de Kuratowski}{Kuratowski's definition} \langsubsubsection{Définition de Kuratowski}{Kuratowski's definition}
\begin{definition_sq} \label{definition:ordered_pair} \begin{definition_sq} \label{definition:ordered_pair}
$(a,b)_K := \{\{a\}, \{a,b\}\}$ $(a, b)_K := \{\{a\}, \{a, b\}\}$
\end{definition_sq} \end{definition_sq}
\langsubsection{Réunion}{Union} \langsubsection{Réunion}{Union}
@ -46,10 +46,10 @@ $(a,b)_K := \{\{a\}, \{a,b\}\}$
Unite all elements of two given sets into one. Unite all elements of two given sets into one.
\begin{definition_sq} \label{definition:set_union} \begin{definition_sq} \label{definition:set_union}
$A \union B := \{x | (x \in A \lor x \in B)\}$ $A \union B := \{x \mid (x \in A \lor x \in B)\}$
\end{definition_sq} \end{definition_sq}
Pour des ensembles finis : $\forall E,F \in \Cat(\Set), \card{E \union F} = \card{E} + \card{F} - \card{E \intersection F}$ Pour des ensembles finis : $\forall (E, F) \in \Cat(\Set)^2, \card{E \union F} = \card{E} + \card{F} - \card{E \intersection F}$
Example : Example :
@ -61,7 +61,7 @@ $B := \{b_0, \cdots, b_m\}$
$A \union B = \{a_0, \cdots, a_n, b_0, \cdots, b_m\}$ $A \union B = \{a_0, \cdots, a_n, b_0, \cdots, b_m\}$
\langsubsection{Scheme of replacement}{Scheme of replacement} \langsubsection{Schéma de compréhension}{Scheme of replacement}
%TODO Complete subsection %TODO Complete subsection
\langsubsection{Infini}{Infinity} \langsubsection{Infini}{Infinity}
@ -89,9 +89,9 @@ The axiom of choice implies the law of excluding middle.
Assume that $0 \ne 1$ (or any two elements that are not equal), Let $\Omega := \{0, 1\}$, $p \in \mathbf{Prop}$ Assume that $0 \ne 1$ (or any two elements that are not equal), Let $\Omega := \{0, 1\}$, $p \in \mathbf{Prop}$
$A := \{ x \in \Omega | x = 0 \lor p \}$ $A := \{ x \in \Omega \mid x = 0 \lor p \}$
$B := \{ y \in \Omega | y = 1 \lor p \}$ $B := \{ y \in \Omega \mid y = 1 \lor p \}$
$\implies 0 \in A \land 1 \in B$ $\implies 0 \in A \land 1 \in B$
@ -115,7 +115,7 @@ So by proof by cases $(p \lor \lnot p)$ which is the law of excluded middle \ref
Unite all common elements of two given sets into one. Unite all common elements of two given sets into one.
\begin{definition_sq} \label{definition:set_intersection} \begin{definition_sq} \label{definition:set_intersection}
$A \intersection B := \{x | (x \in A \land x \in B)\}$ $A \intersection B := \{x \mid (x \in A \land x \in B)\}$
\end{definition_sq} \end{definition_sq}
Pour des ensembles finis : $\forall E,F \in \Cat(\Set), \card{E \intersection F} = \card{E} - \card{F} + \card{E \union F}$ Pour des ensembles finis : $\forall E,F \in \Cat(\Set), \card{E \intersection F} = \card{E} - \card{F} + \card{E \union F}$
@ -136,14 +136,14 @@ $A \intersection B = \{c_0, \cdots, c_n\}$
Exclude elements of a set from a set Exclude elements of a set from a set
\begin{definition_sq} \label{definition:set_difference} \begin{definition_sq} \label{definition:set_difference}
$A \setminus B := \{x | (x \in A \land x \notin B)\}$ $A \setminus B := \{x \mid (x \in A \land x \notin B)\}$
\end{definition_sq} \end{definition_sq}
Pour des ensembles finis : $\forall E,F \in \Cat(\Set), \card{E \setminus F} = \card{E} - \card{E \intersection F}$ Pour des ensembles finis : $\forall E,F \in \Cat(\Set), \card{E \setminus F} = \card{E} - \card{E \intersection F}$
\langsection{Fonction}{Function} \langsection{Fonction}{Function}
Source: \citeannexes{wikipedia_function_mathematics} Source : \citeannexes{wikipedia_function_mathematics}
\begin{definition_sq} \label{definition:set_function} \begin{definition_sq} \label{definition:set_function}
Une fonction $f$ est un tuple d'un domaine \citeannexes{wikipedia_domain_function} $A$ et un codomaine \citeannexes{wikipedia_codomain} $B$. Une fonction $f$ est un tuple d'un domaine \citeannexes{wikipedia_domain_function} $A$ et un codomaine \citeannexes{wikipedia_codomain} $B$.
@ -159,7 +159,7 @@ $\function{f}{x}{f(x)}$
\langsubsection{Injectivité}{Injectivity} \langsubsection{Injectivité}{Injectivity}
Source: \citeannexes{wikipedia_injective_function} Source : \citeannexes{wikipedia_injective_function}
\begin{definition_sq} \label{definition:injective} \begin{definition_sq} \label{definition:injective}
Une fonction $f$ de $E$ dans $F$ est dite \textbf{injective} si, et seulement si, $\forall (a,b) \in E, f(a) = f(b) \Rightarrow a = b$. Une fonction $f$ de $E$ dans $F$ est dite \textbf{injective} si, et seulement si, $\forall (a,b) \in E, f(a) = f(b) \Rightarrow a = b$.
@ -167,7 +167,7 @@ Une fonction $f$ de $E$ dans $F$ est dite \textbf{injective} si, et seulement si
\langsubsection{Surjectivité}{Surjectivity} \langsubsection{Surjectivité}{Surjectivity}
Source: \citeannexes{wikipedia_surjective_function} Source : \citeannexes{wikipedia_surjective_function}
\begin{definition_sq} \label{definition:surjective} \begin{definition_sq} \label{definition:surjective}
Une fonction $f$ de $E$ dans $F$ est dite \textbf{surjective} si, et seulement si, $\forall y \in F, \exists x \in E : y = f(x)$. Une fonction $f$ de $E$ dans $F$ est dite \textbf{surjective} si, et seulement si, $\forall y \in F, \exists x \in E : y = f(x)$.
@ -175,7 +175,7 @@ Une fonction $f$ de $E$ dans $F$ est dite \textbf{surjective} si, et seulement s
\langsubsection{Bijectivité}{Bijectivity} \langsubsection{Bijectivité}{Bijectivity}
Source: \citeannexes{wikipedia_bijection} Source : \citeannexes{wikipedia_bijection}
\begin{definition_sq} \label{definition:bijection} \begin{definition_sq} \label{definition:bijection}
Une fonction $f$ de $E$ dans $F$ est dite \textbf{bijective} si, et seulement si, elle est à la fois injective \ref{definition:injective} et surjective \ref{definition:surjective} ou $\forall y \in F, \exists! x \in E : y = f(x)$. Une fonction $f$ de $E$ dans $F$ est dite \textbf{bijective} si, et seulement si, elle est à la fois injective \ref{definition:injective} et surjective \ref{definition:surjective} ou $\forall y \in F, \exists! x \in E : y = f(x)$.

View File

@ -16,12 +16,17 @@
\textit{Remarque} : Une suite arithmétique est le phénomène discret d'une progression linéaire. \textit{Remarque} : Une suite arithmétique est le phénomène discret d'une progression linéaire.
Il est possible d'exprimer une suite arithmétique \suite{u} en fonction d'un élément $u_p$, un rang $n$ et sa raison de la manière suivante : $r$, $u_n = u_p + (n - p)r$.
\begin{definition_sq} \begin{definition_sq}
\lang{Une suite \suite{u} dite \textbf{géométrique} est définie par une valeur initiale $u_p$ ainsi que d'une relation de récurrence $u_{n + 1} = u_n \cartesianProduct q$ avec $q \in E(\cartesianProduct)$ appelé la \textbf{raison} de la suite.}% \lang{Une suite \suite{u} dite \textbf{géométrique} est définie par une valeur initiale $u_p$ ainsi que d'une relation de récurrence $u_{n + 1} = u_n \cartesianProduct q$ avec $q \in E(\cartesianProduct)$ appelé la \textbf{raison} de la suite.}%
{A \textbf{geometric} sequence is defined by an initial value $u_p$ et a recurring relationship $u_{n + 1} = u_n \cartesianProduct q$ with $q \in E(\cartesianProduct)$ called the \textbf{ratio} of the sequence. }
\end{definition_sq} \end{definition_sq}
\textit{Remarque} : Une suite géométrique est le phénomène discret d'une progression exponentielle. \textit{Remarque} : Une suite géométrique est le phénomène discret d'une progression exponentielle.
Il est possible d'exprimer une suite géométrique \suite{u} en fonction d'un élément $u_p$, un rang $n$ et sa raison $r$ de la manière suivante : $u_n = u_p \cartesianProduct r^{n - p}$.
\begin{definition_sq} \begin{definition_sq}
\lang{Une suite dite \textbf{arithmético-géométrique} est défini par une valeur initiale $u_p$ ainsi que d'une relation de récurrence $u_{n + 1} = a \cartesianProduct u_n + b$ avec $a,b \in E(+,\cartesianProduct) \land a \ne 0 \land b \ne 0$}% \lang{Une suite dite \textbf{arithmético-géométrique} est défini par une valeur initiale $u_p$ ainsi que d'une relation de récurrence $u_{n + 1} = a \cartesianProduct u_n + b$ avec $a,b \in E(+,\cartesianProduct) \land a \ne 0 \land b \ne 0$}%
{A geometric sequence is defined by $$ } {A geometric sequence is defined by $$ }
@ -29,6 +34,15 @@
\langsection{Limite de suite}{Limit of sequences} \langsection{Limite de suite}{Limit of sequences}
Lorsque $E = \R$ ou $\C$, une suite géométrique \suite{u} de raison $q$ a plusieurs comportements asymptotiques possibles selon la raison :
\begin{itemize}
\item{$\abs{q} < 1$ alors $\lim\limits_{n \to \infty} q^n = 0$}
\item{$q = 1$ alors $\lim\limits_{n \to \infty} q^n = 1$}
\item{$q > 1$ alors $\lim\limits_{n \to \infty} q^n = +\infty$}
\item{$q \le 1$ alors la limite n'existe pas.}
\end{itemize}
\begin{definition_sq} \label{definition:cauchy_sequence} \begin{definition_sq} \label{definition:cauchy_sequence}
Une suite \suite{u} d'un espace métrique $(E, d)$ est dite \textbf{suite de Cauchy} si Une suite \suite{u} d'un espace métrique $(E, d)$ est dite \textbf{suite de Cauchy} si
$$\forall \epsilon \in \R^*_+, \exists N \in \N, \forall n,m \in \N \land n \ge N \land m \ge N, d(u_n, u_m) < \epsilon$$ $$\forall \epsilon \in \R^*_+, \exists N \in \N, \forall n,m \in \N \land n \ge N \land m \ge N, d(u_n, u_m) < \epsilon$$
@ -36,6 +50,22 @@
\lang{Lorsque l'on tend $n \to +\infty$ certaines suites exposent des particularités.}{When we tend $n \to +\infty$ certains sequences shows particuliar behaviours.} \lang{Lorsque l'on tend $n \to +\infty$ certaines suites exposent des particularités.}{When we tend $n \to +\infty$ certains sequences shows particuliar behaviours.}
\begin{theorem_sq}
Le point d'adhérence d'une suite de Cauchy est unique.
\end{theorem_sq}
\begin{proof}
Soit une suite de Cauchy \suite{u} d'un espace métrique $(E, d)$, supposons que cette suite a au moins un point d'adhérence
Soit deux points d'adhérence $x$ et $y$ différents, comme $E$ est un espace séparé $\exists \epsilon \in R_+^*$ tel que l'on peut construire deux boules centrées en $x$ et $y$ tel que $\B(x, \frac{\epsilon}{2}) \intersection \B(y, \frac{\epsilon}{2}) = \emptyset$.
Comme \suite{u} est une suite de Cauchy, $\exists N \in \N, \forall m,n \ge N$ tel que $d(u_n, u_m) < \frac{\epsilon}{4}$. Comme $x$ est un point d'adhérence $u_n \in \B(x, \frac{\epsilon}{4})$.
Par inégalité triangulaire, $d(u_m, x) \le d(u_m, u_n) + d(u_n, x) = \frac{\epsilon}{4} + \frac{\epsilon}{4} = \frac{\epsilon}{2} \implies u_m \in b(x, \frac{\epsilon}{2})$.
Hors comme $\B(x, \frac{\epsilon}{2}) \intersection \B(y, \frac{\epsilon}{2}) = \emptyset \implies u_m \notin b(y, \frac{\epsilon}{2})$, sauf que cela contredit le fait que $y$ est un point d'adhérence.
Il ne peut donc pas y avoir deux points d'adhérence différents dans une suite de Cauchy.
\end{proof}
\begin{definition_sq} \label{definition:convergence_sequence} \begin{definition_sq} \label{definition:convergence_sequence}
Une suite \suite{u} d'un espace métrique $(E, d)$ est dite \textbf{convergente} en $l$ si Une suite \suite{u} d'un espace métrique $(E, d)$ est dite \textbf{convergente} en $l$ si
$$\exists l \in E, \forall \epsilon \in \R^*_+, \exists N \in \N, \forall n \in \N \land n \ge N, d(u_n, l) < \epsilon$$ $$\exists l \in E, \forall \epsilon \in \R^*_+, \exists N \in \N, \forall n \in \N \land n \ge N, d(u_n, l) < \epsilon$$
@ -51,20 +81,13 @@
\end{proof} \end{proof}
\begin{theorem_sq} \begin{theorem_sq}
Le point d'adhérence d'une suite de Cauchy est unique. Toute suite convergente est bornée.
\end{theorem_sq} \end{theorem_sq}
\begin{proof} \begin{proof}
Soit une suite de Cauchy \suite{u} d'un espace métrique $(E, d)$, supposons que cette suite à au moins un point d'adhérence Soit \suite{X} une suite convergente en $l$.
Soit deux points d'adhérence $x$ et $y$ différents, comme $E$ est un espace séparé $\exists \epsilon \in R_+^*$ tel que l'on peut construire deux boules centrées en $x$ et $y$ tel que $\B(x, \frac{\epsilon}{2}) \intersection \B(y, \frac{\epsilon}{2}) = \emptyset$. % TODO Complete proof
Comme \suite{u} est une suite de Cauchy, $\exists N \in \N, \forall m,n \ge N$ tel que $d(u_n, u_m) < \frac{\epsilon}{4}$. Comme $x$ est un point d'adhérence $u_n \in \B(x, \frac{\epsilon}{4})$.
Par inégalité triangulaire, $d(u_m, x) \le d(u_m, u_n) + d(u_n, x) = \frac{\epsilon}{4} + \frac{\epsilon}{4} = \frac{\epsilon}{2} \implies u_m \in b(x, \frac{\epsilon}{2})$
mais comme $\B(x, \frac{\epsilon}{2}) \intersection \B(y, \frac{\epsilon}{2}) = \emptyset \implies u_m \notin b(y, \frac{\epsilon}{2})$, sauf que cela contredit le fait que $y$ est un point d'adhérence.
Il ne peux donc pas y avoir deux points différents adhérence dans une suite de Cauchy.
\end{proof} \end{proof}
\begin{definition_sq} \label{definition:divergence_sequence} \begin{definition_sq} \label{definition:divergence_sequence}

View File

@ -17,7 +17,7 @@
\usepackage{multibib} % Allow multiple separates bibliography citations \usepackage{multibib} % Allow multiple separates bibliography citations
\langnewcites{annexes}{Annexes}{Annexes} \langnewcites{annexes}{Annexes}{Annexes}
\langnewcites{references}{Références}{References} \langnewcites{references}{Références}{References}
\usepackage{lipsum} % Command to generate temporary dummy text \usepackage[language=\langoption]{lipsum} % Command to generate temporary dummy text
\usepackage[ruled,vlined,linesnumbered]{algorithm2e} % Add the algorithm environnement \usepackage[ruled,vlined,linesnumbered]{algorithm2e} % Add the algorithm environnement
\usepackage[codedark]{packages/themes} % Include many colours themes ([default], codedark or dracula) \usepackage[codedark]{packages/themes} % Include many colours themes ([default], codedark or dracula)
\pagecolor{theme_colour_background} \pagecolor{theme_colour_background}
@ -54,15 +54,15 @@
\section{Motivations} \section{Motivations}
%TODO Complete section %TODO Complete section
Ce notebook est destinée à acueillir mes maigres connaissances manière digeste et mais intrinsecement imcomplet, imprècis voir éronné. A vous lecteur qui découvrent ce notebook, accueiller le davantage comme une liste de connaissances que comme un manuel scolaire. Ce notebook est destinée à accueillir mes maigres connaissances manière digeste et mais intrinsèquement incomplet, imprécis voir erroné. À vous lecteur qui découvre ce notebook, accueillez le davantage comme une liste de connaissances que comme un manuel scolaire.
\langsection{Remerciements}{Thankings} \langsection{Remerciements}{Thankings}
%TODO Complete section %TODO Complete section
Je remercie Adel Medjhoub pour les nombreuses conversations qui ont mürit mes visions du monde. Je remercie Adel Medjhoub pour les nombreuses conversations qui onrit mes visions du monde.
Je remercie Damien Graux de m'avoir introduit le monde de la recherche ainsi que la language LaTeX sur laquelle ce notebook est rédiger. Je remercie Damien Graux de m'avoir introduit le monde de la recherche ainsi que le langage LaTeX sur laquelle ce notebook est rédigé.
De de manière honteusement démagogique, je vous remercie tout lecteurs de ce notebook. De de manière honteusement démagogique, je vous remercie tous lecteurs de ce notebook.
\input{contents/latex} \input{contents/latex}
\input{contents/computer_science} \input{contents/computer_science}
@ -75,6 +75,7 @@ De de manière honteusement démagogique, je vous remercie tout lecteurs de ce n
\input{contents/algebra_dm2} \input{contents/algebra_dm2}
\input{contents/trigonometry} \input{contents/trigonometry}
\input{contents/differentiability} \input{contents/differentiability}
\input{contents/complex_analysis}
\input{contents/differential_equations} \input{contents/differential_equations}
\input{contents/measure_theory} \input{contents/measure_theory}
\input{contents/suites} \input{contents/suites}

View File

@ -19,17 +19,23 @@
\newcommand{\C}{\mathbb{C}} % Complex numbers symbol \newcommand{\C}{\mathbb{C}} % Complex numbers symbol
\newcommand{\Cat}{\mathcal{C}} % Category \newcommand{\Cat}{\mathcal{C}} % Category
\newcommand{\Set}{\mathbf{Set}} % Set category \newcommand{\Set}{\mathbf{Set}} % Set category
\newcommand{\Grp}{\mathbf{Grp}} % Group category
\newcommand{\Ab}{\mathbf{Ab}} % Abelian category
\newcommand{\Top}{\mathbf{Top}} % Topological spaces category
\newcommand{\K}{\mathbb{K}} % Corps \newcommand{\K}{\mathbb{K}} % Corps
\newcommand{\Hq}{\mathbb{H}} % Quaternions numbers symbol \newcommand{\Hq}{\mathbb{H}} % Quaternions numbers symbol
\newcommand{\Ot}{\mathbb{O}} % Octonions numbers symbol \newcommand{\Ot}{\mathbb{O}} % Octonions numbers symbol
\newcommand{\Se}{\mathbb{S}} % Sedenions numbers symbol \newcommand{\Se}{\mathbb{S}} % Sedenions numbers symbol
\newcommand{\Pn}{\mathbb{P}} % Sets of all the prime numbers \newcommand{\Pn}{\mathbb{P}} % Sets of all the prime numbers
\newcommand{\B}{\mathbf{B}} % Topological Ball \newcommand{\B}{\mathbf{B}} % Topological Ball
\newcommand{\Identity}{\text{Id}} % Identity
\newcommand{\identity}{\text{id}} % identity
\newcommand{\false}{F} % New symbol for false value \newcommand{\false}{F} % New symbol for false value
\newcommand{\true}{V} % New symbol for true value \newcommand{\true}{V} % New symbol for true value
\DeclareMathOperator{\Rel}{\mathcal{R}} % New symbol for binary relations \DeclareMathOperator{\Rel}{\mathcal{R}} % New symbol for binary relations
\DeclareMathOperator{\composes}{\circ} % New symbol composing morphisms \DeclareMathOperator{\composes}{\circ} % New symbol composing morphisms
\DeclarePairedDelimiter{\abs}{|}{|} \DeclarePairedDelimiter{\abs}{|}{|}
\newcommand{\isomorphic}{\cong} % Isomorphism
\DeclarePairedDelimiter{\card}{|}{|} \DeclarePairedDelimiter{\card}{|}{|}
\DeclarePairedDelimiter{\floor}{\lfloor}{\rfloor} \DeclarePairedDelimiter{\floor}{\lfloor}{\rfloor}
\DeclarePairedDelimiter{\ceil}{\lceil}{\rceil} \DeclarePairedDelimiter{\ceil}{\lceil}{\rceil}