notebook/contents/algebra.tex

751 lines
32 KiB
TeX

\langchapter{Algèbre}{Algebra}
%TODO Complete chapter
\section{Structures}
%TODO Complete section
\subsection{Magma}
\begin{definition_sq} \label{definition:magma}
Un magma est un ensemble $E$ avec une loi de composition interne $\function{\star}{E^2}{E}$ notée $(E, \star)$ tel que $\forall(a, b) \in E, a \star b \in E$.
\end{definition_sq}
\langsubsection{Magma unital}{Unital magma}
\begin{definition_sq} \label{definition:unital_magma}
Un magma \ref{definition:magma} $(E, \star)$ est dit \textbf{unital} si $\exists \Identity_E \in E, \forall a \in E, \Identity_E \star a = a \star \Identity_E = a$.
\end{definition_sq}
\begin{theorem_sq}
L'élément neutre d'un magma unital $(E, \star)$ est unique.
\end{theorem_sq}
\begin{proof}
Soit $e, f$ deux éléments neutres d'un magma unital $(E, \star)$, par définition d'un élément neutre, on peut poser $e = e \star f = f = f \star e = e$
\end{proof}
\subsection{Monoïde}
\begin{definition_sq} \label{definition:monoid}
Un monoïde $(E, \star)$ est un magma unital \ref{definition:unital_magma} dont la loi de composition est associative \ref{definition:associativity}.
\end{definition_sq}
\langsubsection{Groupe}{Group}
\begin{definition_sq} \label{definition:group}
Un groupe $(G, \star)$ est un monoïde \ref{definition:monoid} tous les éléments sont inversibles i.e. $\forall a \in G, \exists a^{-1} \in G, a^{-1} \star a = a \star a^{-1} = \Identity_G$.
\end{definition_sq}
\begin{definition_sq} \label{definition:order_group}
Le cardinal d'un groupe $(G, \star)$ est appelé \textbf{ordre du groupe}, dans le cas d'un cardinal fini, on parlera de \textbf{groupe fini}.
\end{definition_sq}
\begin{theorem_sq}
L'élément inverse de tout élément d'un groupe $(G, \star)$ est unique.
\end{theorem_sq}
\begin{proof}
Soit $(G, \star)$ un groupe ainsi que $x \in G$ avec $a, b$ deux inverses de $x$. Par définition d'un élément inverse, on peut poser $x \star a = \Identity_G \equivalence b \star (x \star a) = b \star \Identity_G \equivalence (b \star x) \star a = b \equivalence a = b$.
\end{proof}
\langsubsubsection{Groupe abélien}{Abelian group}
\begin{definition_sq} \label{definition:abelian_group}
Un groupe est dit \textbf{abélien} ou \textbf{commutatif} si la loi de composition est commutative \ref{definition:commutativity}.
\end{definition_sq}
\langsubsubsection{Sous-groupe}{Subgroup}
\begin{definition_sq} \label{definition:subgroup}
Soit $(G, \star) \in \Grp$. Un sous-ensemble $H \subseteq G$ est un \textbf{sous-groupe} de $G$ si $H$ est également un groupe, dans ce cas on notera $H \leqslant G$.
Les sous-groupes tels que $H = G$ ou $H = \{ \Identity_G \}$ sont appelées les \textbf{sous-groupes triviaux} de $G$.
\end{definition_sq}
\langsubsubsubsection{Sous-groupe engendré}{Generated subgroup}
\begin{definition_sq} \label{definition:generated_subgroup}
Un sous-groupe engendré est un groupe \ref{definition:group} générée par un élément $x$ d'un groupe $(G, \star)$ définie de la manière suivante : $\generator{x} := \{ x^k \mid k \in \Z \} \subseteq G$
\end{definition_sq}
\begin{proof}
Soit un groupe $(G, \star)$ ainsi que $x \in G$. Comme $\generator{x} \subseteq G$, il suffit de vérifier l'élément neutre et l'inversibilité. Ce qui est immédiat avec la proposition suivante : $\forall y \in G, \forall p \in \Z, y^p \star y^{-p} = \Identity$.
\end{proof}
\langsubsubsection{Produit direct de groupe}{Direct product of groups}
\begin{definition_sq} \label{definition:direct_product_group}
Le \textbf{produit direct} ou \textbf{groupe produit} de deux groupes $(G, \star)$ et $(H, +)$ est l'ensemble $G \cartesianProduct H$ muni de l'opération $\function{\triangle}{(G \cartesianProduct H)^2}{G \cartesianProduct H} \hspace{1mm} \functiondef{(x_1, x_2) \cartesianProduct (y_1, y_2)}{(x_1 \star y_1, x_2 + y_2)}$
\end{definition_sq}
\langsubsubsection{Morphisme de groupe}{Group morphism}
\begin{definition_sq} \label{definition:group_morphism}
Un morphisme de groupe est un homomorphisme \ref{definition:homomorphism} appliqué à la catégorie des groupes ($\Grp$).
Soit $(X, \star)$ et $(Y, \composes)$ deux groupes ainsi que l'application $\function{\phi}{X}{Y}$ tel que
$$\forall (x, y) \in X^2, \phi(x \star y) = \phi(x) \composes \phi(y)$$
Similairement, un morphisme de groupe est un morphisme tel que le diagramme suivant commute :
\[\begin{tikzcd}
X \cartesianProduct X \arrow[r, "\phi \cartesianProduct \phi"] \arrow[d, "\star"] & Y \cartesianProduct Y \arrow[d, "\composes"] \\
X \arrow[r, "\phi"] & Y
\end{tikzcd}\]
\end{definition_sq}
\begin{theorem_sq} \label{theorem:identity_homomorphism_is_identity}
Soit $(G, +)$ et $(H, \star)$ deux groupes \ref{definition:group} et $f$ un homomorphisme entre $G$ et $H$ \ref{definition:honomorphism}.
$$f(\Identity_G) = \Identity_H$$
\end{theorem_sq}
\begin{proof}
Soit $(G, +)$ et $(H, \star)$ deux groupes et $f$ un homomorphisme entre $G$ et $H$.
$$\forall x \in G, \left[ f(x) = f(x + \Identity_G) = f(x) \star f(\Identity_G) \right] \land \left[ f(x) = f(\Identity_G + x) = f(\Identity_G) \star f(x) \right] \equivalence f(\Identity_G) = \Identity_H$$
\end{proof}
\begin{theorem_sq} \label{theorem:inv_homomorphism_is_inv}
Soit $(G, +)$ et $(H, \star)$ deux groupes \ref{definition:group} et $f$ un homomorphisme entre $G$ et $H$ \ref{definition:honomorphism}.
$$\forall x \in G, f(x^{-1}) = f^{-1}(x)$$
\end{theorem_sq}
\begin{proof}
Soit $(G, +)$ et $(H, \star)$ deux groupes et $f$ un homomorphisme entre $G$ et $H$.
$$\forall x \in G, f(\Identity_G) = f(x + x^{-1}) = f(x) \star f(x^{-1})$$
Par définition d'un morphisme $\exists y \in H, y = f(x)$ et par \ref{theorem:identity_homomorphism_is_identity}
$$y \star f(x^{-1}) = \Identity_H \implies f(x^{-1}) = y^{-1} \implies f(x^{-1}) = f^{-1}(x)$$
\end{proof}
\begin{theorem_sq} \label{theorem:ab_monomor_imp_ab}
Soit $(G, +)$ et $(H, \star)$ deux groupes \ref{definition:group} et $f$ un monomorphisme entre $G$ et $H$ \ref{definition:monomorphism}.
$$(H, +) \in \Ab \implies (G, \star) \in \Ab$$
\end{theorem_sq}
\begin{proof}
Soit $((G, +), (H, \star)) \in \Grp^2$ et $f \in \hom(G, H)$ tel que $f$ est un monomorphisme \ref{definition:monomorphism}.
$f$ est un monomorphisme $\implies \forall (x, y) \in G^2 \land x \neq y, \exists! (a, b) \in H^2 \land f(a) = x \land f(b) = y$
$\implies x \star y = f(a) \star f(b) = f(b) \star f(a) = y \star x$
\end{proof}
\begin{theorem_sq} \label{theorem:ab_epimor_imp_ab}
Soit $(G, +)$ et $(H, \star)$ deux groupes \ref{definition:group} et $f$ un épimorphisme entre $G$ et $H$ \ref{definition:epimorphism}.
$$(G, +) \in \Ab \implies (H, \star) \in \Ab$$
\end{theorem_sq}
\begin{proof}
Soit $((G, +), (H, \star)) \in \Grp^2$ et $f \in \hom(G, H)$ tel que $f$ est un épimorphisme \ref{definition:epimorphism}.
$f$ est un épimorphisme $\implies \forall (x, y) \in H^2, \exists (a, b) \in G^2, f(a) = x \land f(b) = y$
$(G, +) \in \Ab \implies x \star y = f(a) \star f(b) = f(a + b) = f(b + a) = f(b) \star f(a) = y \star x$
\end{proof}
\begin{theorem_sq}
Soit $(G, +)$ et $(H, \star)$ deux groupes \ref{definition:group} et $f$ un isomorphisme entre $G$ et $H$ \ref{definition:isomorphism}.
$$(G, +) \in \Ab \equivalence (H, \star) \in \Ab$$
\end{theorem_sq}
\begin{proof}
Soit $((G, +), (H, \star)) \in \Grp^2$ et $f \in \hom(G, H)$ tel que $f$ est un isomorphisme \ref{definition:isomorphism}.
\impliespart
$(G, +) \in \Ab$ et $f$ est un isomorphisme et particulièrement un épimorphisme $\implies (H, \star) \in \Ab$ (Voir \ref{theorem:ab_epimor_imp_ab})
\Limpliespart
$(H, \star \in \Ab$ et $f$ est un isomorphisme et particulièrement un monomorphisme $\implies (G, +) \in \Ab$ (Voir \ref{theorem:ab_monomor_imp_ab})
\end{proof}
\begin{definition_sq} \label{definition:group_morphism_kernel}
Soit $(X, \star)$ et $(Y, \composes)$ ainsi que d'un morphisme de groupe $\function{\phi}{X}{Y}$. On appelle \textbf{noyau de $\phi$} l'ensemble $\ker(\phi) := \{ g \in G \mid \phi(g) = \Identity_G \}$.
\end{definition_sq}
\begin{theorem_sq}
Soit $(X, \star)$ et $(Y, +)$ le noyau d'un morphisme de groupe $\function{\phi}{X}{Y}$ est un sous-groupe de $X$ et $\phi$ est injectif si et seulement si $\ker(\phi) = \{ \Identity_X \}$.
\end{theorem_sq}
\begin{proof}
Soit $(X, \star)$ et $(Y, +)$ et un morphisme de groupe $\function{\phi}{X}{Y}$.
\begin{itemize}
\item{$\Identity_G \in \ker(\phi)$ par \ref{theorem:identity_homomorphism_is_identity}}
\item{$\forall (x, y) \in (\ker(\phi))^2, \phi(x \star y) = \phi(x) + \phi(y) = \Identity_H + \Identity_H = \Identity_H \implies x \star y \in \ker(\phi)$}
\item{(Version longue) $\forall x \in \ker(\phi), \phi(x \star x^{-1}) = \phi(x) + \phi(x^{-1}) = \Identity_H + \phi(x^{-1}) = \phi(x^{-1}) = \Identity \implies x^{-1} \in \ker(\phi)$}
\item{$\forall x \in \ker(\phi), \phi(x^{-1}) = \phi^{-1}(x) \equivalence \Identity_H^{-1} = \Identity_H$ (par \ref{theorem:inv_homomorphism_is_inv} et \ref{theorem:identity_homomorphism_is_identity}) $\implies x^{-1} \in \ker(\phi)$}
\end{itemize}
$\implies \ker(\phi) \subgroup G$
Soit $(x, y) \in G$
$$\phi(x) = \phi(y) \implies \phi(x \star y^{-1}) = \phi(x) + \phi(y^{-1}) = \phi(x) + \phi^{-1}(y)$$
Par \ref{theorem:inv_homomorphism_is_inv}
$$\phi(x) + \phi^{-1}(y) = \phi(x) + \phi(x) = \Identity_H \implies x \star y^{-1} = \Identity_G \in \ker(\phi) \implies x = y$$
\end{proof}
\begin{theorem_sq}
Soit $(X, \star)$ et $(Y, +)$ et un homomorphisme $\function{\phi}{X}{Y}$. Alors l'image $f(X) \subseteq Y$ est un sous-groupe de $Y$.
\end{theorem_sq}
\begin{proof}
Soit $(X, \star)$ et $(Y, +)$ et un homomorphisme $\function{\phi}{X}{Y}$.
\begin{itemize}
\item{$\Identity_H \in \phi(X)$ par \ref{theorem:identity_homomorphism_is_identity}}
\item{$\forall (a', b') \in \phi(X)^2, \exists (a, b) \in X^2, a' = \phi(a) \land b' = \phi(b) \implies \phi(a) + \phi(b) = \phi(a \star b) \in \phi(X)$}
\item{$\forall a \in \phi(X), \exists b \in X, a = \phi(b) \implies a^{-1} = \phi(b)^{-1} = \phi(b^{-1})$ par \ref{theorem:inv_homomorphism_is_inv} $\implies a^{-1} \in \phi(X)$}
\end{itemize}
\end{proof}
\langsubsection{Corps}{Field}
\begin{definition_sq} \label{definition:field}
Un corps $(F, +, \star)$ avec deux lois de composition interne $(+)$ et $(\star)$.
\begin{itemize}
\item{$(F, +)$ est un groupe abélien \ref{definition:abelian_group} unital en $\Identity_E$}
\item{$(F\backslash\{\Identity_E\}, \star)$ est un groupe \ref{definition:group}}
\end{itemize}
\end{definition_sq}
\langsubsubsection{Corps commutatif}{Commutative field}
\begin{definition_sq} \label{definition:commutative_field}
Un corps commutatif est un corps \ref{definition:field} dont la seconde loi de composition $(\cartesianProduct)$ est commutative \ref{definition:commutativity}.
\end{definition_sq}
\langsubsection{Anneau}{Ring}
Source : \citeannexes{wikipedia_ring}
\begin{definition_sq} \label{definition:ring}
Un anneau $(R, +, \star)$ est un triplet, un ensemble $R$, une opération $(+)$ qui est un groupe abélien \ref{definition:abelian_group}, une opération $(\star)$ qui est un monoïde \ref{definition:monoid} et l'opération $(\star)$ est distributive sur l'opération $(+)$, c'est-à-dire
$\forall (a, b, c) \in R^3$
\begin{itemize}
\item{Distributivité à gauche : $a \star (b + c) = (a \star b) + (a \star c)$}
\item{Distributivité à droite : $(b + c) \star a = (b \star a) + (c \star a)$}
\end{itemize}
\end{definition_sq}
\section{Matrices}
%TODO Complete section
Une matrice est une structure qui permet de regrouper plusieurs éléments d'un corps \ref{definition:field} $\K$ en un tableau de $n$ lignes et $m$ colonnes ou plus et est notée $\mathcal{M}_{n, m}(\K)$. Dans le cas d'une matrice carrée, on peut simplifier la notation en $\mathcal{M}_{n}(\K)$.
\begin{definition_sq} \label{definition:square_matrix}
Une matrice carrée (notée $\mathcal{M}_n(\K)$) est une matrice $\mathcal{M}_{n, m}(\K)$ d'un corps $\K$$n = m$.
\end{definition_sq}
\begin{definition_sq} \label{definition:identity_matrix}
La matrice identité (notée $I_n$) est une matrice carrée \ref{definition:square_matrix} tel que $\forall (i, j) \in \discreteInterval{1, n}^2, M_{i, j} = \begin{cases} i = j & 1 \\ \otherwise & 0 \end{cases}$
\end{definition_sq}
\subsection{Trace}
%TODO Complete subsection
$\forall A \in \mathcal{M}_{n}, tr(A) = \sum\limits_{k = 0}^na_{kk}$
$tr\in\mathcal{L}(\mathcal{M}_n(\K), \K)$
$\forall(A, B)\in\mathcal{M}_{n, p}(\K)\cartesianProduct\mathcal{M}_{p, n}(\K), tr(AB) = tr(BA)$
\langsubsection{Valeurs propres}{Eigenvalues}
%TODO Complete subsection
\subsubsection{Astuces pour le cas 2x2}
Avec $m := \frac{Tr(A)}{2}$
$Eigenvalues = m \pm \sqrt{m^2 - det(A)}$
\langsubsection{Vecteurs propres}{Eigenvectors}
%TODO Complete subsection
\langsubsubsection{Polynôme caractéristique}{Characteristic polyonomial}
%%TODO Complete subsubsection
\langsubsection{Déterminant}{Determinant}
%%TODO Complete subsection
$\function{\det}{\mathcal{M}_{m, n}(\K)}{\R}$
\langsubsubsection{Axiomes}{Axioms}
%%TODO Complete subsubsection
$\forall (A, B) \in \mathcal{M}_{m, n}(\K)^2$
\begin{itemize}
\item{$\forall \lambda \in \K, \det(\lambda A) = \lambda \det(A)$}
\item{$\det(AB) = \det(A) \det(B)$}
\end{itemize}
\langsubsubsection{Cas 2x2}{2x2 case}
%TODO Complete subsubsection
$det\left(\begin{bmatrix}a & b\\c & d\end{bmatrix}\right) = ad - bc$
\langsubsubsection{Cas 3x3}{3x3 case}
%TODO Complete subsubsection
\pagebreak
\subsection{Inverse}
\begin{theorem_sq}
Le tuple $(M_n(\K), \cartesianProduct)$ est un monoïde.
\end{theorem_sq}
\begin{proof}
Par définition la loi de composition $(\cartesianProduct)$ est un magma.
%TODO Complete proof part of associativity
La matrice $\Identity_n$ est l'élément neutre.
\end{proof}
\begin{theorem_sq}
$\lnot(\forall (A, B, M) \in M_n(\K)^3, (M \ne 0 \land MA = MB) \equivalence A = B)$
\end{theorem_sq}
\begin{proof}
Soit $(A, B, M) \in M_2(\K)^3$ tel que
$M := \begin{pmatrix} 3 & -12 \\ -1 & 4 \end{pmatrix}$ \hspace{3mm} $A := \begin{pmatrix} 5 & 9 \\ 3 & 4 \end{pmatrix}$ \hspace{3mm} $B := \begin{pmatrix} 1 & -3 \\ 2 & 1 \end{pmatrix}$
$MA = MB = \begin{pmatrix} -21 & -21 \\ 7 & 7 \end{pmatrix}$ alors que $M \ne 0 \land A \ne B$
\end{proof}
% \begin{theorem_sq}
% $\lnot(\forall (A, B) \in M_n(\K)^2, AB = 0 \implies A = 0 \lor B = 0)$
% \end{theorem_sq}
% \begin{proof}
% Soit $(A, B) \in M^*_2(\K)^2$ tel que
%
% $A := \begin{pmatrix} 3 & -12 \\ -2 & 8 \end{pmatrix}$ \hspace{5mm} $B := \begin{pmatrix} 4 & 12 \\ 1 & 3 \end{pmatrix}$
%
% $AB = 0$ alors que $A \ne 0 \land B \ne 0$
% \end{proof}
\begin{definition_sq} \label{definition:inversible_matrix}
Une matrice $A \in M_n(\K)$ est dite \textbf{inversible} sur $\K$ si et seulement s'il existe une matrice dite \textbf{inverse} $B \in M_n(\K)$ tel que $AB = \Identity_n = BA$.
Nous pourrons noter cette inverse $A^{-1}$.
\end{definition_sq}
- La matrice identité est son propre inverse : $\Identity_n \cartesianProduct \Identity_n = \Identity_n$
- Les matrices de transvection $T_{i, j}(a)$ sont inversibles : $(T_{i, j}(a))^{-1} = T_{i, j}(-a)$
- Les matrices de dilatation $D_i(a)$ sont inversibles : $(D_i(a))^{-1} = D_i(a^{-1})$
- Les matrices de permutation $P_{i, j}$ sont inversibles : $(P_{i, j})^{-1} = P_{i, j}$
\begin{definition_sq} \label{definition:linear_group}
L'ensemble des matrices inversibles est appelé \textbf{groupe linéaire} et est noté $GL_n(\K)$.
Également, le tuple $(GL_n(\K), \cartesianProduct)$ est un groupe \ref{definition:group}.
\end{definition_sq}
Par la théorie des groupes :
\begin{itemize}
\item{L'inverse est unique : $AB = AC = \Identity_n \implies B = C = A^{-1}$}
\item{L'inverse d'un inverse est l'identité : $(A^{-1})^{-1} = A$}
\item{Le produit de deux matrices inversibles est inversible : $(AB)^{-1} = B^{-1}A^{-1}$}
\end{itemize}
La transposée d'un inverse et l'inverse de la transposée : $(A^{-1})^T = (A^T)^{-1}$
$(A^{-1})^T A^T = (AA^{-1})^T = \Identity_n^T = \Identity_n$ et $A^T(A^{-1})^T = (A^{-1}A)^T = \Identity_n^T = \Identity_n$
\begin{theorem_sq}
$\forall (A, B) \in M_n(\K)^2, \forall M \in GL_n(\K), (MA = MB) \equivalence A = B$
\end{theorem_sq}
\begin{proof}
Soit $(A, B) \in M_n(\K)^2, M \in GL_n(\K)$ tel que $MA = MB$
$\exists M^{-1} \in GL_n(\K), M^{-1}M = \Identity_n \implies M^{-1}(MA) = M^{-1}(MB) \equivalence (M^{-1}M)A = (M^{-1}M)B \equivalence A = B$
\end{proof}
\begin{theorem_sq}
L'ensemble des matrices de transvection et de dilatation engendre le groupe $GL_n(\K)$.
\end{theorem_sq}
\begin{proof}
Soit $A \in GL_n(\K)$.
On va appliquer l'algorithme du pivot de Gauss, nous allons transformer A en une matrice de dilatation, mais en utilisant uniquement des transvections.
Comme A est inversible, sa première colonne n'est pas nulle.
S'il existe $i > 1$ tel que $a_{i1} \ne 0$, alors l'opération $L_1 \leftarrow L_1 - \frac{a_{11}}{a_{i1}}L_i$ permet de mettre un coefficient 1 en position $(1, 1)$.
Sinon, nécessairement $a_{11} \ne 0$ et on fait $L_1 \leftarrow L_2$ et $L_2 \leftarrow -L_1$ pour se ramener au cas précédent.
Ensuite, en utilisant le coefficient $(1, 1)$ comme pivot, une succession d'opérations sur les lignes puis sur les
colonnes permet d'annuler tous les autres coefficients de la première ligne et de la première colonne : il existe
des matrices de transvection $M1, \dots , Mp$ et $N1, \dots , Nq$ telles que
$$\left(\prod\limits_{i = 1}^p M_i\right) A \left(\prod\limits_{i = 1}^q N_i\right) = \begin{pmatrix} 1 & 0 \\ 0 & A_1 \end{pmatrix}$$
$A_1 \in GL_{n - 1}(\K)$.
On itère ce procédé sur $A_1$ et ainsi de suite jusqu'à $\begin{pmatrix} 1 & & & \\ & \ddots & & \\ & & 1 & \\ & & & \alpha \end{pmatrix}$
$\alpha = \prod_{v \in sp(A)} v$.
Ainsi, il existe des matrices de transvection $U_1, \dots, U_r$ et $V_1, \dots, V_r$ telles que $A = U_r \dots U_1 D_n(\alpha) V_1 \dots V_s$
Ainsi, tout matrice de $GL_n(\K)$ s'écrit comme produit de matrices de transvection et de dilatation.
\end{proof}
\begin{theorem_sq}
Une matrice $A \in M_n(\K)$ est inversible si et seulement si son rang est égal à son ordre (c'est-à-dire $\rank{A} = n$)
\end{theorem_sq}
\begin{proof}
Soit $A \in M_n(\K)$
\impliespart
Supposons que la matrice $A$ est inversible, c'est-à-dire qu'il existe une matrice $A^{-1}$ telle que $AA^{-1} = A^{-1}A = \Identity_n$.
% TODO Fix proof...
Alors, $\rank{A} = n$.
En effet, si $\rank{A} = n$, ainsi, il existe une matrice colonne de taille $n$ qui est un multiple scalaire des colonnes de $A$, ce qui signifie que les vecteurs colonnes de $A$ sont linéairement indépendants.
\Limpliespart
Supposons que $\rank{A} = n$.
Sachant que les matrices de dilatation et transvection conservent le rang, et que la matrice identité $\Identity_n$ à un rang de $n$
alors, nous pouvons créer une séquence finie de $k$ matrices de dilatation et de transvection tel que $A = \prod\limits_{i = 1}^k E_i$.
Hors comme toutes les matrices de dilation te de transvection sont inversibles ainsi que leur produit, ainsi, nous pouvons créer une autre séquence finie $B = \prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}$.
On remarque de $AB = \left(\prod\limits_{i = 1}^k E_i\right) \left(\prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}\right) = \prod\limits_{i = 1}^k \Identity_n = \Identity_n$.
Donc, non seulement $A$ est inversible, mais avons aussi un algorithme qui permet de calculer sa matrice inverse.
% TODO Fix garbage AI proof...
Dans cet article, nous prouvons que si le rang d'une matrice $A$ est égal à son ordre (taille),
alors la matrice $A$ est inversible en utilisant des matrices élémentaires.
Supposons que la matrice $A \in M_n(\K)$ et que $\rank{A} = n$.
Montrer qu'il existe une matrice inversible composée de matrices élémentaires.
Supposons que $A$ est une matrice de taille $n$ avec $\rank{A} = n$.
Nous savons que pour toute opération sur les lignes (ou les colonnes),
la matrice résultante aura un rang égal ou inférieur à la matrice originale $A$.
Par conséquent, nous pouvons effectuer une séquence d'opérations élémentaires sur les lignes de $A$ sans changer son rang.
Soit $E_1, E_2, \ldots, E_k$ ces matrices élémentaires telles que leur produit est également une matrice élémentaire. Nous avons $A = \prod\limits_{i = 1}^n E_i$
Puisque $\rank{A} = n$, et que chaque $E_i$ maintient le rang, il s'ensuit que toutes ces matrices sont des matrices élémentaires avec un élément pivot non nul (elles ne peuvent pas être la matrice zéro).
On peut donc construire une matrice inversible composée uniquement de ces matrices élémentaires :
\[ B = E_1(E_2(\cdots E_k(I_n))\cdots) \]
Cette matrice $B$ est clairement inversible puisqu'elle a un pivot non nul dans chaque ligne (ou colonne), et donc son rang est égal à l'ordre de la matrice originale $A$.
Ainsi, nous avons montré que si $\rank{A} = n$, il existe une matrice inversible composée uniquement de matrices élémentaires.
\end{proof}
\pagebreak
\begin{theorem_sq}
Une matrice $A \in M_n(\K)$ est inversible sur $\K$ si et seulement si $det(A) \neq 0$.
\end{theorem_sq}
\begin{proof}
% TODO Complete proof
\end{proof}
\langsubsection{Diagonalisation}{Diagonalization}
%TODO Complete subsection
\begin{definition_sq} \label{definition:diagonalizable_matrix}
Une matrice $A \in M_n(\K)$ est dite \textbf{diagonalisable} sur $\K$ s'il existe une matrice inversible \ref{definition:inversible_matrix} $P \in GL_n(\K)$ ainsi qu'une matrice diagonale $D \in M_n(\K)$ tel que $A = PDP^{-1}$
\end{definition_sq}
\langsubsection{Orthogonalité}{Orthogonality}
%TODO Complete subsection
$det(M) \in \{-1, 1\}$
\subsection{Triangulation}
%TODO Complete subsection
$a \in Tr_n$
\subsection{Exponentiation}
%TODO Complete subsection
\begin{definition_sq} \label{definition:exponentiation_matrix}
Pour $A \in M_n(\K)$, on définit
$$e^A := \sum\limits_{n = 0}^{+\infty} \frac{A^n}{n!}$$
\end{definition_sq}
\begin{theorem_sq}
Pour tout $A \in M_n(\K)$ converge dans $M_n(\K)$.
\end{theorem_sq}
\begin{proof}
Soit $A \in M_n(\K)$ ainsi qu'une norme subordonnée quelconque $\matrixnorm{.}$.
$$\forall n \in \N, \matrixnorm{\frac{A^n}{n!}} \le \frac{\matrixnorm{A^n}}{n!}$$
\end{proof}
\begin{theorem_sq}
Pour tout $A, B \in M_n(\K)$ tel que $AB = BA$ alors $e^{A + B} = e^A e^B = e^B e^A$.
\end{theorem_sq}
\begin{proof}
Soit $A, B \in M_n(\K)$ tel que $AB = BA$. Posons $U_n := \frac{A^n}{n!}$ et $V_n := \frac{B^n}{n!}$, comme $U_n$ et $V_n$ converge absolument, leur produit de série $W_n := \sum\limits_{n \in \N} U_n \sum\limits_{k \in \N} V_k$ aussi. Hors,
$$W_n = \sum\limits_{k = 0}^n U_k V_{n - k} = \sum\limits_{k = 0}^n \frac{A^n}{n!} \frac{B^{(n - k)}}{(n - k)!}$$
comme $AB = BA$ et en tendant $n$ vers l'infini cela donne $\lim\limits_{n \to +\infty} W_n = e^A e^B = e^B e^A$
Sachant la formule du binôme de Newton $(A + B)^n = \sum\limits_{k = 0}^n \frac{n!}{k! (n - k)!} A^k B^{n - k}$
$$W_n = \sum\limits_{k = 0}^n \frac{A^n}{n!} \frac{B^{(n - k)}}{(n - k)!} = \sum\limits_{k = 0}^n \frac{(A + B)^n}{n!}$$
en tendant $n$ vers l'infini cela donne $\lim\limits_{n \to +\infty} W_n = e^{A + B}$
\end{proof}
\begin{theorem_sq}
Pour tout $A \in M_n(\K)$, $e^A$ est inversible \ref{definition:inversible_matrix} et $(e^A)^{-1} = e^{-A}$
\end{theorem_sq}
\begin{proof}
Soit $A \in M_n(\K)$, comme $A(-A) = -AA$ alors $e^{-A} e^A = e^A e^{-A} = e^{A - A} = e^0 = \Identity_n$
\end{proof}
\langsection{Formes quadratiques}{Quadratic forms}
\begin{definition_sq} \label{definition:quadratic_form}
On appelle \textbf{forme quadratique} sur $E$ toute application $\function{q}{E}{\R}$ telle qu'il existe une forme bilinéaire symétrique \ref{definition:bilinear_form} $\function{b}{E \cartesianProduct E}{\R}$ telle que $\forall x \in E, q(x) = b(x, x)$
\end{definition_sq}
\begin{prop_sq}
Si $q$ une forme quadratique \ref{definition:quadratic_form}, alors la forme bilinéaire $b$ associée est unique, déterminé par les \textbf{formules de polarisation}
$$b(x, y) = \frac{1}{2}\left(q(x + y) - q(x) - q(y)\right)$$
$$= \frac{1}{4}\left(q(x + y) - q(x - y)\right)$$
On dit alors que $b$ est la \textbf{forme polaire} de $q$.
\end{prop_sq}
\begin{proof}
Soit $q$ une forme quadratique \ref{definition:quadratic_form} ainsi que ça forme bilinéaire $b$ associée. Comme $\forall x \in E, q(x) = b(x, xx)$, on peut développer, par bilinéarité et symétrie de $b$, pour obtenir
$$q(x + y) = b(x + y, x + y) = b(x, x) + 2b(x, y) + b(y, y) = q(x) + 2b(x, y) + q(y)$$
Ainsi que
$$q(x - y) = b(x - y, x - y) = b(x, x) - 2b(x, y) + b(y, y) = q(x) - 2b(x, y) + q(y)$$
Les deux formules de polarisation s'en déduisent immédiatement.
\end{proof}
\langsection{Espaces vectoriels}{Vectors spaces} \label{definition:vector_space}
%TODO Complete section
Soit $(E, +)$ un groupe abélien \ref{definition:abelian_group} de $\K$
\begin{itemize}
\item{muni d'une loi de composition externe d'un corps $\K$ tel que $\function{(\cdot)}{K \cartesianProduct E}{E}$ vérifiant $(\alpha, x) \rightarrow \alpha x$}
\end{itemize}
\bigskip
Et vérifiant $\forall(\alpha, \beta) \in \K^2, \forall(a, b, c) \in E^3$
\begin{itemize}
\item{Unital en $(\cdot)$}
\item{Distributivité (gauche et droite) $+$ de $\K \equivalence a(\alpha + \beta) = (\alpha + \beta)a = \alpha a + \beta a$}
\item{Distributivité (gauche et droite) $*$ de $\K \equivalence a(\alpha * \beta) = (\alpha * \beta)a = \alpha(\beta a)$}
\end{itemize}
\langsubsection{Famille libre}{Free family} \label{definition:vector_space_free_family}
\begin{definition_sq}
Une famille \suite{e} est dite \textbf{libre} si
$$\forall i \in \discreteInterval{1, n}, \lambda_i \in \K, \sum\limits_{i = 1}^n \lambda_i e_i = 0 \implies \lambda_i = 0$$
\end{definition_sq}
\langsubsection{Famille génératrice}{Generating family} \label{definition:vector_space_generating_family}
\begin{definition_sq}
Une famille \suite{e} est dite \textbf{génératrice} de $E$ si
$$\forall v \in E, \exists \lambda \in \K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$$
\end{definition_sq}
\langsubsection{Bases}{Basis} \label{definition:vector_space_basis}
\begin{definition_sq}
Une famille est appelée une \textbf{base} de $E$ si elle est libre \ref{definition:vector_space_free_family} et génératrice \ref{definition:vector_space_generating_family} $\equivalence \forall v \in E, \exists! \lambda \in \K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$
\end{definition_sq}
\subsection{Dimension} \label{definition:vector_space_dimension}
%TODO Complete subsection
\langsubsubsection{Rang}{Rank} \label{definition:vector_space_rank}
%TODO Complete subsubsection
\begin{theorem_sq} \label{theorem:vector_space_rank}
Soit $E$ et $G$ $K$-e.v \ref{definition:sub_vector_space} et $\function{\phi}{E}{F}$.
$\dim E = \dim \ker(\phi) + \dim im(\phi) = \dim \ker(\phi) = \rank{\phi}$
\end{theorem_sq}
\langsubsection{Sous-espaces vectoriels}{Sub vector spaces} \label{definition:sub_vector_space}
%TODO Complete subsection
Soit $E$ un $\K$-espace vectoriel \ref{definition:vector_space}, $F$ est un sous-espace vectoriel (parfois notée « s.e.v ») si $F \subset E$ ainsi que les propriétés suivantes :
\begin{itemize}
\item{$F \ne \emptyset$}
\item{$\Identity_E \in F$}
\item{$\forall(\alpha, \beta) \in \K^2, \forall(x, y)\in F^2, \alpha x + \beta y \in F$}
\end{itemize}
\begin{theorem_sq} \label{theorem:union_sub_vector_spaces}
Soit $F$ et $G$ s.e.v \ref{definition:sub_vector_space} de $E$. « $F \union G$ est un s.e.v de $E$ » $ \equivalence (F \subset G) \lor (G \subset F)$.
\end{theorem_sq}
\begin{proof}
Soit $F$ et $G$ s.e.v \ref{definition:sub_vector_space} de $E$.
\impliespart
$(F \subset G) \lor (G \subset F) \implies (G $ s.e.v de $E) \lor (F $ s.e.v de $E) \implies (F \union G)$ s.e.v de $E$.
\Limpliespart
$(F \union G) $ s.e.v de $E \land [(F \not\subset G) \land (G \not\subset F)]$
Let $x \in F \setminus G$ and $y \in G \setminus F$
$(F\union G)$ s.e.v de $E \implies x + y \in F \union G$
B.W.O.C let's suppose $x + y \in F \setminus G$
$\implies (x + y) - x \in F \setminus G$
$\implies y \in F \setminus G \land y \in G \setminus F \implies \bot$
By a similar argument $y \notin G \setminus F$
$\implies (y \notin F \setminus G) \land (y \notin G \setminus F) \implies \bot$
$\implies F \subset G \lor G \subset F$
\end{proof}
\langsubsection{Application linéaire}{Linear map} \label{definition:linearity}
\begin{definition_sq} \label{defintion:linear_map}
Une application $\function{f}{\K}{\K}$ est une \textbf{application linéaire} d'un $\K$-espace vectoriel $E$ si il respecte les axiomes suivants :
\begin{itemize}
\item{\lang{Additivité}{Additivity} : $\forall(x, y) \in E^2, f(x + y) = f(x) + f(y)$}
\item{\lang{Homogénéité}{Homogeneity} : $\forall a \in \K, \forall x \in E, f(a x) = a f(x)$}
\end{itemize}
\lang{Ou de manière plus succincte}{Or a faster way)} : $\forall a \in \K, \forall(x, y) \in E^2, f(x + a y) = f(x) + a f(y)$
Une application linéaire donc est un morphisme \ref{definition:morphism} appliqué à la catégorie \ref{definition:category} des espaces vectoriels \ref{definition:vector_space}.
\end{definition_sq}
\langsubsection{Forme bilinéaire}{Bilinear form}
\begin{definition_sq} \label{definition:bilinear_form}
Une forme bilinéaire est une application $\function{B}{E^2}{\K}$ sur un $\K$-espace vectoriel $E$ qui est linéaire sur les deux arguments tel qui respecte les axiomes suivants :
$\forall (u, v, w) \in E^3, \forall a \in \K$
\begin{itemize}
\item{$B(u + v, w) = B(u, w) + B(v, w)$}
\item{$B(a u, w) = B(u, a w) = a B(u, w)$}
\item{$B(u, w + v) = B(u, v) + B(u, w)$}
\end{itemize}
\end{definition_sq}
\begin{definition_sq} \label{definition:symmetric_bilinear_form}
Une forme bilinéaire \ref{definition:bilinear_form} $\function{B}{E^2}{\K}$ est dite \textbf{symétrique} si $\forall (u, v) \in E^2, B(u, v) = B(v, u)$.
\end{definition_sq}
\langsubsection{Produit scalaire}{Inner product}
\begin{definition_sq} \label{definition:inner_product}
Un produit scalaire notée $\innerproduct{-}{-}$ sur un $\K$-espace vectoriel $E$ est une forme bilinéaire \ref{definition:bilinear_form} qui respecte les axiomes suivants :
\begin{itemize}
\item{Symétrie : $\forall(x, y) \in E^2, \innerproduct{x}{y} = \innerproduct{y}{x}$}
\item{Non-dégénérescence : $\forall x \in E, \innerproduct{x}{x} = 0 \implies x = 0$}
\end{itemize}
\end{definition_sq}
\langsubsubsection{Produit scalaire réel}{Real inner product}
\begin{definition_sq} \label{definition:real_inner_product}
Un produit scalaire réel est un produit scalaire \ref{definition:inner_product} d'un $\R$-espace vectoriel \ref{definition:vector_space}.
\end{definition_sq}
\langsubsubsection{Produit scalaire complexe}{Complex inner product}
\begin{definition_sq} \label{definition:complex_inner_product}
Un produit scalaire complexe est un produit scalaire \ref{definition:inner_product} d'un $\C$-espace vectoriel \ref{definition:vector_space}.
\end{definition_sq}
\langsubsection{Norme}{Norm}
\begin{definition_sq} \label{definition:norm}
Une norme notée $\norm{.}_E$ sur un $\K$-espace vectoriel \ref{definition:vector_space} $E$ est une application $\function{\norm{.}}{K}{\R_+}$ qui respecte les axiomes suivants :
\begin{itemize}
\item{Séparation : $\forall x \in E, \norm{x} = 0 \implies x = 0$}
\item{Homogénéité : $\forall x \in E, \forall \lambda \in \K, \norm{\lambda x} = \abs{\lambda}\norm{x}$}
\item{Inégalité triangulaire : $\forall (x, y) \in E^2, \norm{x + y} \le \norm{x} + \norm{y}$}
\end{itemize}
\end{definition_sq}
\langsubsubsection{Norme réelle}{Real norm}
\begin{definition_sq} \label{definition:real_norm}
Une norme réelle est une norme \ref{definition:norm} d'un $\R$-espace vectoriel \ref{definition:vector_space}.
\end{definition_sq}
\langsubsubsection{Norme complexe}{Complex norm}
\begin{definition_sq} \label{definition:complex_norm}
Une norme complexe est une norme \ref{definition:norm} d'un $\C$-espace vectoriel \ref{definition:vector_space}.
\end{definition_sq}
\langsubsection{Espace pré-hilbertien}{Pre-hilbertian Space}
\begin{definition_sq} \label{definition:prehilbertian_space}
Un $\K$-espace vectoriel $E$ muni d'un produit scalaire $\innerproduct{-}{-}$ noté comme un tuple $(E, \innerproduct{-}{-})$ est appelé un \textbf{espace pré-hilbertien}.
\end{definition_sq}
\langsubsection{Espace Euclidien}{Euclidian Space}
\begin{definition_sq} \label{definition:euclidian_space}
Un \textbf{espace euclidien} est un espace pré-hilbertien \ref{definition:prehilbertian_space} réel à dimension finie.
\end{definition_sq}
\langsubsection{Espace Hermitien}{Hermitian Space}
\begin{definition_sq} \label{definition:hermitian_space}
Un \textbf{espace hermitien} est un espace pré-hilbertien \ref{definition:prehilbertian_space} complexe à dimension finie.
\end{definition_sq}