Added proofs and fixed typos

This commit is contained in:
saundersp
2025-03-30 22:05:09 +02:00
parent f95eee7d29
commit 38880b1f21
8 changed files with 637 additions and 147 deletions

View File

@ -10,10 +10,12 @@
Un magma est un ensemble $E$ avec une loi de composition interne $\function{\star}{E^2}{E}$ notée $(E, \star)$ tel que $\forall(a, b) \in E, a \star b \in E$.
\end{definition_sq}
Typiquement, pour éviter d'inventer des nouvelles notations pour chaque loi de composition interne, on utilisera des notations déjà familières telles que \textbf{la notation additive (+)} directement héritée de l'addition des entiers naturels, ainsi que \textbf{la notation multiplicative ($\cartesianProduct$)}.
\langsubsection{Magma unital}{Unital magma}
\begin{definition_sq} \label{definition:unital_magma}
Un magma \ref{definition:magma} $(E, \star)$ est dit \textbf{unital} si $\exists \Identity_E \in E, \forall a \in E, \Identity_E \star a = a \star \Identity_E = a$.
Un magma \ref{definition:magma} $(E, \star)$ est dit \textbf{unital} s'il existe un élément appelé \textbf{élément neutre} tel que si combiné avec n'importe quel élément ne le change pas, c'est-à-dire $$\exists \Identity_E \in E, \forall a \in E, \Identity_E \star a = a \star \Identity_E = a$$
\end{definition_sq}
\begin{theorem_sq}
@ -106,11 +108,9 @@ $det\left(\begin{bmatrix}a & b\\c & d\end{bmatrix}\right) = ad - bc$
\langsubsubsection{Cas 3x3}{3x3 case}
%TODO Complete subsubsection
\pagebreak
\subsection{Inverse}
\begin{theorem_sq}
\begin{theorem_sq} \label{theorem:matrix_product_monoid}
Le tuple $(M_n(\K), \cartesianProduct)$ est un monoïde.
\end{theorem_sq}
@ -132,17 +132,17 @@ $det\left(\begin{bmatrix}a & b\\c & d\end{bmatrix}\right) = ad - bc$
$MA = MB = \begin{pmatrix} -21 & -21 \\ 7 & 7 \end{pmatrix}$ alors que $M \ne 0 \land A \ne B$
\end{proof}
% \begin{theorem_sq}
% $\lnot(\forall (A, B) \in M_n(\K)^2, AB = 0 \implies A = 0 \lor B = 0)$
% \end{theorem_sq}
\begin{theorem_sq}
$\lnot(\forall (A, B) \in M_n(\K)^2, AB = 0 \implies A = 0 \lor B = 0)$
\end{theorem_sq}
% \begin{proof}
% Soit $(A, B) \in M^*_2(\K)^2$ tel que
%
% $A := \begin{pmatrix} 3 & -12 \\ -2 & 8 \end{pmatrix}$ \hspace{5mm} $B := \begin{pmatrix} 4 & 12 \\ 1 & 3 \end{pmatrix}$
%
% $AB = 0$ alors que $A \ne 0 \land B \ne 0$
% \end{proof}
\begin{proof}
Soit $(A, B) \in M^*_2(\K)^2$ tel que
$A := \begin{pmatrix} 3 & -12 \\ -2 & 8 \end{pmatrix}$ \hspace{5mm} $B := \begin{pmatrix} 4 & 12 \\ 1 & 3 \end{pmatrix}$
$AB = 0_2$ alors que $A \ne 0 \land B \ne 0$
\end{proof}
\begin{definition_sq} \label{definition:inversible_matrix}
Une matrice $A \in M_n(\K)$ est dite \textbf{inversible} sur $\K$ si et seulement s'il existe une matrice dite \textbf{inverse} $B \in M_n(\K)$ tel que $AB = \Identity_n = BA$.
@ -156,25 +156,27 @@ $det\left(\begin{bmatrix}a & b\\c & d\end{bmatrix}\right) = ad - bc$
- Les matrices de dilatation $D_i(a)$ sont inversibles : $(D_i(a))^{-1} = D_i(a^{-1})$
- Les matrices de permutation $P_{i, j}$ sont inversibles : $(P_{i, j})^{-1} = P_{i, j}$
- Les matrices de permutation $P_{i, j}$ sont inversibles : $(P_{i, j})^{-1} = P_{j, i}$
\begin{definition_sq} \label{definition:linear_group}
L'ensemble des matrices inversibles est appelé \textbf{groupe linéaire} et est noté $GL_n(\K)$.
Également, le tuple $(GL_n(\K), \cartesianProduct)$ est un groupe \ref{definition:group}.
\end{definition_sq}
Par la théorie des groupes :
\begin{theorem_sq}
Le tuple $(GL_n(\K), \cartesianProduct)$ est un groupe \ref{definition:group}.
\end{theorem_sq}
\begin{itemize}
\item{L'inverse est unique : $AB = AC = \Identity_n \implies B = C = A^{-1}$}
\item{L'inverse d'un inverse est l'identité : $(A^{-1})^{-1} = A$}
\item{Le produit de deux matrices inversibles est inversible : $(AB)^{-1} = B^{-1}A^{-1}$}
\end{itemize}
\begin{proof}
L'ensemble des matrices inversibles sont également des matrices, donc $GL_n(\K) \subseteq M_n(\K)$ or le tuple $(M_n(\K), \cartesianProduct)$ est un monoïde \ref{theorem:matrix_product_monoid} et $GL_n(\K)$ ne garde que les matrices qui sont inversibles et cela constitue la définition d'un groupe \ref{definition:group}.
\end{proof}
La transposée d'un inverse et l'inverse de la transposée : $(A^{-1})^T = (A^T)^{-1}$
\begin{theorem_sq}
La transposée d'un inverse et l'inverse de la transposée c.-à-d. : $\forall A \in GL_n(\K), (A^{-1})^T = (A^T)^{-1}$
\end{theorem_sq}
$(A^{-1})^T A^T = (AA^{-1})^T = \Identity_n^T = \Identity_n$ et $A^T(A^{-1})^T = (A^{-1}A)^T = \Identity_n^T = \Identity_n$
\begin{proof}
$\forall A \in GL_n(\K), (A^{-1})^T A^T = (AA^{-1})^T = \Identity_n^T = \Identity_n \land A^T(A^{-1})^T = (A^{-1}A)^T = \Identity_n^T = \Identity_n$
\end{proof}
\begin{theorem_sq}
$\forall (A, B) \in M_n(\K)^2, \forall M \in GL_n(\K), (MA = MB) \equivalence A = B$
@ -195,14 +197,19 @@ $(A^{-1})^T A^T = (AA^{-1})^T = \Identity_n^T = \Identity_n$ et $A^T(A^{-1})^T =
\begin{proof}
Par récurrence sur $n$. Le cas d'initialisation $n = 1$ est immédiat.
Passons à l'hérédité. Soit $A \in GL_n(\K)$ avec $n \ge 2$ et supposons l'hypothèse $h$ au rang $n - 1$. On va appliquer l'algorithme du pivot de Gauss.
Comme A est inversible, sa première colonne n'est pas nulle.
Si $a_{11} \ne 1$, alors il existe $i > 1$ tel que la matrice de transvection $T_{1, i}(\frac{1 - a_{11}}{a_{i1}})$ (ou l'opération $L_1 \leftarrow L_1 + \frac{1 - a_{11}}{a_{i1}}L_i$) permet de mettre un coefficient 1 en position $(1, 1)$.
Passons à l'hérédité. Soit $A \in GL_n(\K)$ avec $n \ge 2$ et supposons l'hypothèse $h$ au rang $n - 1$.
Appliquons l'algorithme du pivot de Gauss.
Comme A est inversible, sa première colonne est nécessairement non nulle.
Si $a_{11} \ne 1$, s'il existe $i > 1$ tel que la matrice de transvection $T_{1, i}(\frac{1 - a_{11}}{a_{i1}})$ permet de mettre un coefficient 1 en position $(1, 1)$.
Dans le cas ou $a_{11} \ne 1$ et qu'il s'agit du seul coefficient non nul de la colonne, nous pouvons ajouter la matrice de transvection $T_{2, 1}(1)$ pour nous ramener au cas précédent.
Ensuite, en utilisant le coefficient $(1, 1)$ comme pivot, une succession d'opérations sur les lignes puis sur les
colonnes permet d'annuler tous les autres coefficients de la première ligne et de la première colonne : il existe
des matrices de transvection cela permet d'affirmer qu'il existe une suite finie de matrices de transvection $M_k$ telles que
colonnes permet d'annuler tous les autres coefficients de la première ligne et de la première colonne, cela permet d'affirmer qu'il existe une suite finie de matrices de transvection $M_k$ telles que
$A \prod\limits_{i = 1}^k M_i = \begin{pmatrix} 1 & 0 \\ 0 & A' \end{pmatrix}$
$A' \in GL_{n - 1}(\K)$ ainsi que $\det(A') = \det(A)$, avec l'hypothèse $h$ on conclut l'hérédité.
$A' \in GL_{n - 1}(\K)$ ainsi que $\det(A') = \det(A)$.
En appliquant l'hypothèse $h$ on conclut l'hérédité.
\end{proof}
\begin{theorem_sq}
@ -225,48 +232,74 @@ $(A^{-1})^T A^T = (AA^{-1})^T = \Identity_n^T = \Identity_n$ et $A^T(A^{-1})^T =
Supposons que la matrice $A$ est inversible, c'est-à-dire qu'il existe une matrice $A^{-1}$ telle que $AA^{-1} = A^{-1}A = \Identity_n$.
% TODO Fix proof...
Alors, $\rank{A} = n$.
% \Limpliespart
En effet, si $\rank{A} = n$, ainsi, il existe une matrice colonne de taille $n$ qui est un multiple scalaire des colonnes de $A$, ce qui signifie que les vecteurs colonnes de $A$ sont linéairement indépendants.
% Supposons que $\rank{A} = n$.
% Sachant que les matrices de dilatation et transvection conservent le rang, et que la matrice identité $\Identity_n$ à un rang de $n$
% alors, nous pouvons créer une séquence finie de $k$ matrices de dilatation et de transvection tel que $A = \prod\limits_{i = 1}^k E_i$.
% Hors comme toutes les matrices de dilation te de transvection sont inversibles ainsi que leur produit, ainsi, nous pouvons créer une autre séquence finie $B = \prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}$.
\Limpliespart
% On remarque de $AB = \left(\prod\limits_{i = 1}^k E_i\right) \left(\prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}\right) = \prod\limits_{i = 1}^k \Identity_n = \Identity_n$.
Supposons que $\rank{A} = n$.
Sachant que les matrices de dilatation et transvection conservent le rang, et que la matrice identité $\Identity_n$ à un rang de $n$
alors, nous pouvons créer une séquence finie de $k$ matrices de dilatation et de transvection tel que $A = \prod\limits_{i = 1}^k E_i$.
Hors comme toutes les matrices de dilation te de transvection sont inversibles ainsi que leur produit, ainsi, nous pouvons créer une autre séquence finie $B = \prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}$.
On remarque de $AB = \left(\prod\limits_{i = 1}^k E_i\right) \left(\prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}\right) = \prod\limits_{i = 1}^k \Identity_n = \Identity_n$.
Donc, non seulement $A$ est inversible, mais avons aussi un algorithme qui permet de calculer sa matrice inverse.
% Donc, non seulement $A$ est inversible, mais avons aussi un algorithme qui permet de calculer sa matrice inverse.
% TODO Fix garbage AI proof...
Dans cet article, nous prouvons que si le rang d'une matrice $A$ est égal à son ordre (taille),
alors la matrice $A$ est inversible en utilisant des matrices élémentaires.
% Dans cet article, nous prouvons que si le rang d'une matrice $A$ est égal à son ordre (taille),
% alors la matrice $A$ est inversible en utilisant des matrices élémentaires.
%
% Supposons que la matrice $A \in M_n(\K)$ et que $\rank{A} = n$.
%
% Montrer qu'il existe une matrice inversible composée de matrices élémentaires.
%
% Supposons que $A$ est une matrice de taille $n$ avec $\rank{A} = n$.
% Nous savons que pour toute opération sur les lignes (ou les colonnes),
% la matrice résultante aura un rang égal ou inférieur à la matrice originale $A$.
% Par conséquent, nous pouvons effectuer une séquence d'opérations élémentaires sur les lignes de $A$ sans changer son rang.
%
% Soit $E_1, E_2, \ldots, E_k$ ces matrices élémentaires telles que leur produit est également une matrice élémentaire. Nous avons $A = \prod\limits_{i = 1}^n E_i$
%
% Puisque $\rank{A} = n$, et que chaque $E_i$ maintient le rang, il s'ensuit que toutes ces matrices sont des matrices élémentaires avec un élément pivot non nul (elles ne peuvent pas être la matrice zéro).
% On peut donc construire une matrice inversible composée uniquement de ces matrices élémentaires :
% \[ B = E_1(E_2(\cdots E_k(I_n))\cdots) \]
% Cette matrice $B$ est clairement inversible puisqu'elle a un pivot non nul dans chaque ligne (ou colonne), et donc son rang est égal à l'ordre de la matrice originale $A$.
% Ainsi, nous avons montré que si $\rank{A} = n$, il existe une matrice inversible composée uniquement de matrices élémentaires.
Supposons que la matrice $A \in M_n(\K)$ et que $\rank{A} = n$.
Ok
Montrer qu'il existe une matrice inversible composée de matrices élémentaires.
Ok
Supposons que $A$ est une matrice de taille $n$ avec $\rank{A} = n$.
Nous savons que pour toute opération sur les lignes (ou les colonnes),
la matrice résultante aura un rang égal ou inférieur à la matrice originale $A$.
Par conséquent, nous pouvons effectuer une séquence d'opérations élémentaires sur les lignes de $A$ sans changer son rang.
Ok
Soit $E_1, E_2, \ldots, E_k$ ces matrices élémentaires telles que leur produit est également une matrice élémentaire. Nous avons $A = \prod\limits_{i = 1}^n E_i$
\impliespart
Since $AA^{-1} = I_n$, the columns of $A$ must be linearly independent.
Puisque $\rank{A} = n$, et que chaque $E_i$ maintient le rang, il s'ensuit que toutes ces matrices sont des matrices élémentaires avec un élément pivot non nul (elles ne peuvent pas être la matrice zéro).
On peut donc construire une matrice inversible composée uniquement de ces matrices élémentaires :
\[ B = E_1(E_2(\cdots E_k(I_n))\cdots) \]
Cette matrice $B$ est clairement inversible puisqu'elle a un pivot non nul dans chaque ligne (ou colonne), et donc son rang est égal à l'ordre de la matrice originale $A$.
Ainsi, nous avons montré que si $\rank{A} = n$, il existe une matrice inversible composée uniquement de matrices élémentaires.
To see this, suppose the columns of $A$ are linearly dependent. Then there exist scalars $c_1, c_2, ..., c_n$, not all zero, such that
$$c_1 \mathbf{a}_1 + c_2 \mathbf{a}_2 + \dots + c_n \mathbf{a}_n = \mathbf{0}$$
where $\mathbf{a}_i$ are the columns of $A$. This can be written as $A\mathbf{c} = \mathbf{0}$, where $\mathbf{c} = \begin{bmatrix} c_1 \\ c_2 \\ \vdots \\ c_n \end{bmatrix}$ is a non-zero vector.
If $A$ is invertible, then we can multiply both sides by $A^{-1}$:
$$A^{-1}A\mathbf{c} = A^{-1}\mathbf{0} \implies \mathbf{c} = \mathbf{0}$$
But this contradicts our assumption that $\mathbf{c}$ is a non-zero vector. Therefore, the columns of $A$ must be linearly independent.
Since $A$ is an $n \times n$ matrix with $n$ linearly independent columns, the column space of $A$ has dimension $n$. Therefore, rank$(A) = n$.
\Limpliespart
$\rank{A} = n$ implies that $A$ is an $n \times n$ matrix with $n$ linearly independent rows.
Since the columns of $A$ are linearly independent and span $\K^n$, any vector $\mathbf{b} \in \K^n$ can be written as a linear combination of the columns of $A$. In other words, for any $\mathbf{b} \in \K^n$, the equation $A\mathbf{x} = \mathbf{b}$ has a solution. Since the columns are linearly independent, the solution is unique.
Consider the system $A\mathbf{x} = \mathbf{e}_i$, where $\mathbf{e}_i$ is the $i$-th standard basis vector in $\K^n$ (i.e., a vector with a 1 in the $i$-th position and 0s elsewhere). Since rank$(A) = n$, this system has a unique solution for each $i = 1, 2, ..., n$. Let $\mathbf{x}_i$ be the unique solution to $A\mathbf{x} = \mathbf{e}_i$.
Now, construct a matrix $B$ whose columns are the vectors $\mathbf{x}_1, \mathbf{x}_2, ..., \mathbf{x}_n$. Then $AB$ is a matrix whose $i$-th column is $A\mathbf{x}_i = \mathbf{e}_i$. Therefore, $AB = I_n$.
Since $AB = I_n$, we have shown that $A$ has a right inverse. For square matrices, if a right inverse exists, then it is also a left inverse. Therefore, $BA = I_n$ as well. Thus, $B = A^{-1}$, and $A$ is invertible.
\end{proof}
\begin{definition_sq} \label{definition:special_linear_group}
L'ensemble \textbf{groupe spécial linéaire} noté $SL_n(\K)$ est le sous ensemble de $GL_n(\K)$ tel que le déterminant est égale à 1.
L'ensemble \textbf{groupe spécial linéaire} noté $SL_n(\K)$ est le sous ensemble de $GL_n(\K)$ tel que le déterminant est égale à 1, c'est-à-dire
$$SL_n(\K) := \{ A \in GL_n(\K) \suchthat \det(A) = 1\}$$
\end{definition_sq}
\begin{theorem_sq}
@ -274,11 +307,17 @@ Ainsi, nous avons montré que si $\rank{A} = n$, il existe une matrice inversibl
\end{theorem_sq}
\begin{proof}
Vérifions chaque axiome d'un groupe. $\det(\Identity_n) = 1 \equivalence \Identity_n \in SL_n(\K)$.
Grâce aux propriétés du déterminant, on peut vérifier chaque axiome d'un sous-groupe \ref{definition:subgroup}
La propriété du déterminant $\forall (A, B) \in M_n(\K)^2, \det(AB) = \det(A)\det(B)$ permet de montrer les propositions suivantes :
$$\forall (A, B) \in SL_n(\K)^2, \det(AB) = \det(A)\det(B) = 1 * 1 = 1 \implies AB \in SL_n(\K)$$
$$\forall A \in SL_n(\K), \exists! A^{-1} \in GL_n(\K), 1 = \det(\Identity_n) = \det(AA^{-1}) = \det(A)\det(A^{-1}) = \det(A^{-1}) \implies A^{-1} \in SL_n(\K)$$
\begin{itemize}
\item{Magma : $\forall (A, B) \in SL_n(\K)^2, \det(AB) = \det(A)\det(B) = 1 \cdot 1 = 1 \implies AB \in SL_n(\K)$}
\item{Présence de l'identité : $\det(\Identity_n) = 1 \implies \Identity_n \in SL_n(\K)$}
\item{Présence de l'inverse : $\forall A \in SL_n(\K), \exists! A^{-1} \in GL_n(\K), 1 = \det(\Identity_n) = \det(AA^{-1}) = \det(A)\det(A^{-1}) = \det(A^{-1}) \implies A^{-1} \in SL_n(\K)$}
\end{itemize}
Pour montrer qu'il s'agit d'un sous-groupe distingué, posons $x \in GL_n(\K)$ et $y \in SL_n(\K)$, nous pouvons en conclure
$\det(xyx^{-1}) = \det(x)\det(y)\det(x)^{-1} = 1 \implies xyx^{-1} \in SL_n(\K)$
\end{proof}
\begin{theorem_sq}
@ -290,13 +329,12 @@ Ainsi, nous avons montré que si $\rank{A} = n$, il existe une matrice inversibl
$$A \prod\limits_{i = 1}^p M_i = \Identity_n$$
\end{proof}
\pagebreak
\begin{theorem_sq}
Une matrice $A \in M_n(\K)$ est inversible sur $\K$ si et seulement si $det(A) \neq 0$.
\end{theorem_sq}
\begin{proof}
\lipsum[2]
% TODO Complete proof
\end{proof}
@ -332,7 +370,7 @@ $a \in Tr_n$
\begin{proof}
Soit $A \in M_n(\K)$ ainsi qu'une norme subordonnée quelconque $\matrixnorm{.}$.
$$\forall n \in \N, \matrixnorm{\frac{A^n}{n!}} \le \frac{\matrixnorm{A^n}}{n!}$$
$$\forall n \in \N, \left\lVert \frac{A^n}{n!} \right\rVert \le \frac{\matrixnorm{A^n}}{n!}$$
\end{proof}
\begin{theorem_sq}
@ -388,36 +426,34 @@ $a \in Tr_n$
Les deux formules de polarisation s'en déduisent immédiatement.
\end{proof}
\langsection{Espaces vectoriels}{Vectors spaces} \label{definition:vector_space}
%TODO Complete section
\langsection{Espaces vectoriels}{Vectors spaces}
Soit $(E, +)$ un groupe abélien \ref{definition:abelian_group} de $\K$
\begin{definition_sq} \label{definition:vector_space}
Un espace vectoriel $(E(\K), +, \cartesianProduct)$ sur un corps $\K$ est un tuple
Soit $(E, +)$ un groupe abélien \ref{definition:abelian_group} de $\K$
\begin{itemize}
\item{muni d'une loi de composition externe d'un corps $\K$ tel que $\function{(\cdot)}{K \cartesianProduct E}{E}$ vérifiant $(\alpha, x) \rightarrow \alpha x$}
\end{itemize}
\begin{itemize}
\item{muni d'une loi de composition externe d'un corps $\K$ tel que $\function{(\cdot)}{K \cartesianProduct E}{E}$ vérifiant $(\alpha, x) \rightarrow \alpha x$}
\end{itemize}
\bigskip
Et vérifiant $\forall(\alpha, \beta) \in \K^2, \forall(a, b, c) \in E^3$
\bigskip
Et vérifiant $\forall(\alpha, \beta) \in \K^2, \forall(a, b, c) \in E^3$
\begin{itemize}
\item{Unital en $(\cdot)$}
\item{Distributivité (gauche et droite) $+$ de $\K \equivalence a(\alpha + \beta) = (\alpha + \beta)a = \alpha a + \beta a$}
\item{Distributivité (gauche et droite) $*$ de $\K \equivalence a(\alpha * \beta) = (\alpha * \beta)a = \alpha(\beta a)$}
\end{itemize}
\langsubsection{Famille libre}{Free family} \label{definition:vector_space_free_family}
\begin{definition_sq}
Une famille \suite{e} est dite \textbf{libre} si
$$\forall i \in \discreteInterval{1, n}, \lambda_i \in \K, \sum\limits_{i = 1}^n \lambda_i e_i = 0 \implies \lambda_i = 0$$
\begin{itemize}
\item{Unital en $(\cdot)$}
\item{Distributivité (gauche et droite) $+$ de $\K \equivalence a(\alpha + \beta) = (\alpha + \beta)a = \alpha a + \beta a$}
\item{Distributivité (gauche et droite) $*$ de $\K \equivalence a(\alpha * \beta) = (\alpha * \beta)a = \alpha(\beta a)$}
\end{itemize}
\end{definition_sq}
\langsubsection{Famille génératrice}{Generating family} \label{definition:vector_space_generating_family}
\begin{definition_sq} \label{definition:vector_space_free_family}
Une famille \suite{e} est dite \textbf{libre} si la seule combinaison linéaire qui annule \suite{e} est la combinaison linéaire nulle, c'est-à-dire
$$\forall \lambda \in \K^n, \sum\limits_{i = 1}^n \lambda_i e_i = 0 \implies \lambda_i = 0$$
\end{definition_sq}
\begin{definition_sq}
Une famille \suite{e} est dite \textbf{génératrice} de $E$ si
$$\forall v \in E, \exists \lambda \in \K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$$
\begin{definition_sq} \label{definition:vector_space_generating_family}
Une famille \suite{e} est dite \textbf{génératrice} d'un espace vectoriel \ref{definition:vector_space} $E$ si pour tout vecteur $v$ de $E$ il existe une combinaison linéaire de \suite{e} égale à $v$, c'est-à-dire
$$\forall v \in E, \exists \lambda \in \K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$$
\end{definition_sq}
\langsubsection{Bases}{Basis} \label{definition:vector_space_basis}
@ -484,7 +520,7 @@ $\implies F \subset G \lor G \subset F$
\langsubsection{Application linéaire}{Linear map} \label{definition:linearity}
\begin{definition_sq} \label{defintion:linear_map}
\begin{definition_sq} \label{definition:linear_map}
Une application $\function{f}{\K}{\K}$ est une \textbf{application linéaire} d'un $\K$-espace vectoriel $E$ si il respecte les axiomes suivants :
\begin{itemize}
\item{\lang{Additivité}{Additivity} : $\forall(x, y) \in E^2, f(x + y) = f(x) + f(y)$}