Added proofs and fixed typos
This commit is contained in:
@ -10,10 +10,12 @@
|
||||
Un magma est un ensemble $E$ avec une loi de composition interne $\function{\star}{E^2}{E}$ notée $(E, \star)$ tel que $\forall(a, b) \in E, a \star b \in E$.
|
||||
\end{definition_sq}
|
||||
|
||||
Typiquement, pour éviter d'inventer des nouvelles notations pour chaque loi de composition interne, on utilisera des notations déjà familières telles que \textbf{la notation additive (+)} directement héritée de l'addition des entiers naturels, ainsi que \textbf{la notation multiplicative ($\cartesianProduct$)}.
|
||||
|
||||
\langsubsection{Magma unital}{Unital magma}
|
||||
|
||||
\begin{definition_sq} \label{definition:unital_magma}
|
||||
Un magma \ref{definition:magma} $(E, \star)$ est dit \textbf{unital} si $\exists \Identity_E \in E, \forall a \in E, \Identity_E \star a = a \star \Identity_E = a$.
|
||||
Un magma \ref{definition:magma} $(E, \star)$ est dit \textbf{unital} s'il existe un élément appelé \textbf{élément neutre} tel que si combiné avec n'importe quel élément ne le change pas, c'est-à-dire $$\exists \Identity_E \in E, \forall a \in E, \Identity_E \star a = a \star \Identity_E = a$$
|
||||
\end{definition_sq}
|
||||
|
||||
\begin{theorem_sq}
|
||||
@ -106,11 +108,9 @@ $det\left(\begin{bmatrix}a & b\\c & d\end{bmatrix}\right) = ad - bc$
|
||||
\langsubsubsection{Cas 3x3}{3x3 case}
|
||||
%TODO Complete subsubsection
|
||||
|
||||
\pagebreak
|
||||
|
||||
\subsection{Inverse}
|
||||
|
||||
\begin{theorem_sq}
|
||||
\begin{theorem_sq} \label{theorem:matrix_product_monoid}
|
||||
Le tuple $(M_n(\K), \cartesianProduct)$ est un monoïde.
|
||||
\end{theorem_sq}
|
||||
|
||||
@ -132,17 +132,17 @@ $det\left(\begin{bmatrix}a & b\\c & d\end{bmatrix}\right) = ad - bc$
|
||||
$MA = MB = \begin{pmatrix} -21 & -21 \\ 7 & 7 \end{pmatrix}$ alors que $M \ne 0 \land A \ne B$
|
||||
\end{proof}
|
||||
|
||||
% \begin{theorem_sq}
|
||||
% $\lnot(\forall (A, B) \in M_n(\K)^2, AB = 0 \implies A = 0 \lor B = 0)$
|
||||
% \end{theorem_sq}
|
||||
\begin{theorem_sq}
|
||||
$\lnot(\forall (A, B) \in M_n(\K)^2, AB = 0 \implies A = 0 \lor B = 0)$
|
||||
\end{theorem_sq}
|
||||
|
||||
% \begin{proof}
|
||||
% Soit $(A, B) \in M^*_2(\K)^2$ tel que
|
||||
%
|
||||
% $A := \begin{pmatrix} 3 & -12 \\ -2 & 8 \end{pmatrix}$ \hspace{5mm} $B := \begin{pmatrix} 4 & 12 \\ 1 & 3 \end{pmatrix}$
|
||||
%
|
||||
% $AB = 0$ alors que $A \ne 0 \land B \ne 0$
|
||||
% \end{proof}
|
||||
\begin{proof}
|
||||
Soit $(A, B) \in M^*_2(\K)^2$ tel que
|
||||
|
||||
$A := \begin{pmatrix} 3 & -12 \\ -2 & 8 \end{pmatrix}$ \hspace{5mm} $B := \begin{pmatrix} 4 & 12 \\ 1 & 3 \end{pmatrix}$
|
||||
|
||||
$AB = 0_2$ alors que $A \ne 0 \land B \ne 0$
|
||||
\end{proof}
|
||||
|
||||
\begin{definition_sq} \label{definition:inversible_matrix}
|
||||
Une matrice $A \in M_n(\K)$ est dite \textbf{inversible} sur $\K$ si et seulement s'il existe une matrice dite \textbf{inverse} $B \in M_n(\K)$ tel que $AB = \Identity_n = BA$.
|
||||
@ -156,25 +156,27 @@ $det\left(\begin{bmatrix}a & b\\c & d\end{bmatrix}\right) = ad - bc$
|
||||
|
||||
- Les matrices de dilatation $D_i(a)$ sont inversibles : $(D_i(a))^{-1} = D_i(a^{-1})$
|
||||
|
||||
- Les matrices de permutation $P_{i, j}$ sont inversibles : $(P_{i, j})^{-1} = P_{i, j}$
|
||||
- Les matrices de permutation $P_{i, j}$ sont inversibles : $(P_{i, j})^{-1} = P_{j, i}$
|
||||
|
||||
\begin{definition_sq} \label{definition:linear_group}
|
||||
L'ensemble des matrices inversibles est appelé \textbf{groupe linéaire} et est noté $GL_n(\K)$.
|
||||
|
||||
Également, le tuple $(GL_n(\K), \cartesianProduct)$ est un groupe \ref{definition:group}.
|
||||
\end{definition_sq}
|
||||
|
||||
Par la théorie des groupes :
|
||||
\begin{theorem_sq}
|
||||
Le tuple $(GL_n(\K), \cartesianProduct)$ est un groupe \ref{definition:group}.
|
||||
\end{theorem_sq}
|
||||
|
||||
\begin{itemize}
|
||||
\item{L'inverse est unique : $AB = AC = \Identity_n \implies B = C = A^{-1}$}
|
||||
\item{L'inverse d'un inverse est l'identité : $(A^{-1})^{-1} = A$}
|
||||
\item{Le produit de deux matrices inversibles est inversible : $(AB)^{-1} = B^{-1}A^{-1}$}
|
||||
\end{itemize}
|
||||
\begin{proof}
|
||||
L'ensemble des matrices inversibles sont également des matrices, donc $GL_n(\K) \subseteq M_n(\K)$ or le tuple $(M_n(\K), \cartesianProduct)$ est un monoïde \ref{theorem:matrix_product_monoid} et $GL_n(\K)$ ne garde que les matrices qui sont inversibles et cela constitue la définition d'un groupe \ref{definition:group}.
|
||||
\end{proof}
|
||||
|
||||
La transposée d'un inverse et l'inverse de la transposée : $(A^{-1})^T = (A^T)^{-1}$
|
||||
\begin{theorem_sq}
|
||||
La transposée d'un inverse et l'inverse de la transposée c.-à-d. : $\forall A \in GL_n(\K), (A^{-1})^T = (A^T)^{-1}$
|
||||
\end{theorem_sq}
|
||||
|
||||
$(A^{-1})^T A^T = (AA^{-1})^T = \Identity_n^T = \Identity_n$ et $A^T(A^{-1})^T = (A^{-1}A)^T = \Identity_n^T = \Identity_n$
|
||||
\begin{proof}
|
||||
$\forall A \in GL_n(\K), (A^{-1})^T A^T = (AA^{-1})^T = \Identity_n^T = \Identity_n \land A^T(A^{-1})^T = (A^{-1}A)^T = \Identity_n^T = \Identity_n$
|
||||
\end{proof}
|
||||
|
||||
\begin{theorem_sq}
|
||||
$\forall (A, B) \in M_n(\K)^2, \forall M \in GL_n(\K), (MA = MB) \equivalence A = B$
|
||||
@ -195,14 +197,19 @@ $(A^{-1})^T A^T = (AA^{-1})^T = \Identity_n^T = \Identity_n$ et $A^T(A^{-1})^T =
|
||||
\begin{proof}
|
||||
Par récurrence sur $n$. Le cas d'initialisation $n = 1$ est immédiat.
|
||||
|
||||
Passons à l'hérédité. Soit $A \in GL_n(\K)$ avec $n \ge 2$ et supposons l'hypothèse $h$ au rang $n - 1$. On va appliquer l'algorithme du pivot de Gauss.
|
||||
Comme A est inversible, sa première colonne n'est pas nulle.
|
||||
Si $a_{11} \ne 1$, alors il existe $i > 1$ tel que la matrice de transvection $T_{1, i}(\frac{1 - a_{11}}{a_{i1}})$ (ou l'opération $L_1 \leftarrow L_1 + \frac{1 - a_{11}}{a_{i1}}L_i$) permet de mettre un coefficient 1 en position $(1, 1)$.
|
||||
Passons à l'hérédité. Soit $A \in GL_n(\K)$ avec $n \ge 2$ et supposons l'hypothèse $h$ au rang $n - 1$.
|
||||
Appliquons l'algorithme du pivot de Gauss.
|
||||
Comme A est inversible, sa première colonne est nécessairement non nulle.
|
||||
|
||||
Si $a_{11} \ne 1$, s'il existe $i > 1$ tel que la matrice de transvection $T_{1, i}(\frac{1 - a_{11}}{a_{i1}})$ permet de mettre un coefficient 1 en position $(1, 1)$.
|
||||
|
||||
Dans le cas ou $a_{11} \ne 1$ et qu'il s'agit du seul coefficient non nul de la colonne, nous pouvons ajouter la matrice de transvection $T_{2, 1}(1)$ pour nous ramener au cas précédent.
|
||||
|
||||
Ensuite, en utilisant le coefficient $(1, 1)$ comme pivot, une succession d'opérations sur les lignes puis sur les
|
||||
colonnes permet d'annuler tous les autres coefficients de la première ligne et de la première colonne : il existe
|
||||
des matrices de transvection cela permet d'affirmer qu'il existe une suite finie de matrices de transvection $M_k$ telles que
|
||||
colonnes permet d'annuler tous les autres coefficients de la première ligne et de la première colonne, cela permet d'affirmer qu'il existe une suite finie de matrices de transvection $M_k$ telles que
|
||||
$A \prod\limits_{i = 1}^k M_i = \begin{pmatrix} 1 & 0 \\ 0 & A' \end{pmatrix}$
|
||||
où $A' \in GL_{n - 1}(\K)$ ainsi que $\det(A') = \det(A)$, avec l'hypothèse $h$ on conclut l'hérédité.
|
||||
où $A' \in GL_{n - 1}(\K)$ ainsi que $\det(A') = \det(A)$.
|
||||
En appliquant l'hypothèse $h$ on conclut l'hérédité.
|
||||
\end{proof}
|
||||
|
||||
\begin{theorem_sq}
|
||||
@ -225,48 +232,74 @@ $(A^{-1})^T A^T = (AA^{-1})^T = \Identity_n^T = \Identity_n$ et $A^T(A^{-1})^T =
|
||||
|
||||
Supposons que la matrice $A$ est inversible, c'est-à-dire qu'il existe une matrice $A^{-1}$ telle que $AA^{-1} = A^{-1}A = \Identity_n$.
|
||||
|
||||
% TODO Fix proof...
|
||||
Alors, $\rank{A} = n$.
|
||||
% \Limpliespart
|
||||
|
||||
En effet, si $\rank{A} = n$, ainsi, il existe une matrice colonne de taille $n$ qui est un multiple scalaire des colonnes de $A$, ce qui signifie que les vecteurs colonnes de $A$ sont linéairement indépendants.
|
||||
% Supposons que $\rank{A} = n$.
|
||||
% Sachant que les matrices de dilatation et transvection conservent le rang, et que la matrice identité $\Identity_n$ à un rang de $n$
|
||||
% alors, nous pouvons créer une séquence finie de $k$ matrices de dilatation et de transvection tel que $A = \prod\limits_{i = 1}^k E_i$.
|
||||
% Hors comme toutes les matrices de dilation te de transvection sont inversibles ainsi que leur produit, ainsi, nous pouvons créer une autre séquence finie $B = \prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}$.
|
||||
|
||||
\Limpliespart
|
||||
% On remarque de $AB = \left(\prod\limits_{i = 1}^k E_i\right) \left(\prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}\right) = \prod\limits_{i = 1}^k \Identity_n = \Identity_n$.
|
||||
|
||||
Supposons que $\rank{A} = n$.
|
||||
Sachant que les matrices de dilatation et transvection conservent le rang, et que la matrice identité $\Identity_n$ à un rang de $n$
|
||||
alors, nous pouvons créer une séquence finie de $k$ matrices de dilatation et de transvection tel que $A = \prod\limits_{i = 1}^k E_i$.
|
||||
Hors comme toutes les matrices de dilation te de transvection sont inversibles ainsi que leur produit, ainsi, nous pouvons créer une autre séquence finie $B = \prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}$.
|
||||
|
||||
On remarque de $AB = \left(\prod\limits_{i = 1}^k E_i\right) \left(\prod\limits_{i = 1}^k (E_{k - i - 1})^{-1}\right) = \prod\limits_{i = 1}^k \Identity_n = \Identity_n$.
|
||||
|
||||
Donc, non seulement $A$ est inversible, mais avons aussi un algorithme qui permet de calculer sa matrice inverse.
|
||||
% Donc, non seulement $A$ est inversible, mais avons aussi un algorithme qui permet de calculer sa matrice inverse.
|
||||
|
||||
|
||||
% TODO Fix garbage AI proof...
|
||||
Dans cet article, nous prouvons que si le rang d'une matrice $A$ est égal à son ordre (taille),
|
||||
alors la matrice $A$ est inversible en utilisant des matrices élémentaires.
|
||||
% Dans cet article, nous prouvons que si le rang d'une matrice $A$ est égal à son ordre (taille),
|
||||
% alors la matrice $A$ est inversible en utilisant des matrices élémentaires.
|
||||
%
|
||||
% Supposons que la matrice $A \in M_n(\K)$ et que $\rank{A} = n$.
|
||||
%
|
||||
% Montrer qu'il existe une matrice inversible composée de matrices élémentaires.
|
||||
%
|
||||
% Supposons que $A$ est une matrice de taille $n$ avec $\rank{A} = n$.
|
||||
% Nous savons que pour toute opération sur les lignes (ou les colonnes),
|
||||
% la matrice résultante aura un rang égal ou inférieur à la matrice originale $A$.
|
||||
% Par conséquent, nous pouvons effectuer une séquence d'opérations élémentaires sur les lignes de $A$ sans changer son rang.
|
||||
%
|
||||
% Soit $E_1, E_2, \ldots, E_k$ ces matrices élémentaires telles que leur produit est également une matrice élémentaire. Nous avons $A = \prod\limits_{i = 1}^n E_i$
|
||||
%
|
||||
% Puisque $\rank{A} = n$, et que chaque $E_i$ maintient le rang, il s'ensuit que toutes ces matrices sont des matrices élémentaires avec un élément pivot non nul (elles ne peuvent pas être la matrice zéro).
|
||||
% On peut donc construire une matrice inversible composée uniquement de ces matrices élémentaires :
|
||||
% \[ B = E_1(E_2(\cdots E_k(I_n))\cdots) \]
|
||||
% Cette matrice $B$ est clairement inversible puisqu'elle a un pivot non nul dans chaque ligne (ou colonne), et donc son rang est égal à l'ordre de la matrice originale $A$.
|
||||
% Ainsi, nous avons montré que si $\rank{A} = n$, il existe une matrice inversible composée uniquement de matrices élémentaires.
|
||||
|
||||
Supposons que la matrice $A \in M_n(\K)$ et que $\rank{A} = n$.
|
||||
Ok
|
||||
|
||||
Montrer qu'il existe une matrice inversible composée de matrices élémentaires.
|
||||
Ok
|
||||
|
||||
Supposons que $A$ est une matrice de taille $n$ avec $\rank{A} = n$.
|
||||
Nous savons que pour toute opération sur les lignes (ou les colonnes),
|
||||
la matrice résultante aura un rang égal ou inférieur à la matrice originale $A$.
|
||||
Par conséquent, nous pouvons effectuer une séquence d'opérations élémentaires sur les lignes de $A$ sans changer son rang.
|
||||
Ok
|
||||
|
||||
Soit $E_1, E_2, \ldots, E_k$ ces matrices élémentaires telles que leur produit est également une matrice élémentaire. Nous avons $A = \prod\limits_{i = 1}^n E_i$
|
||||
\impliespart
|
||||
Since $AA^{-1} = I_n$, the columns of $A$ must be linearly independent.
|
||||
|
||||
Puisque $\rank{A} = n$, et que chaque $E_i$ maintient le rang, il s'ensuit que toutes ces matrices sont des matrices élémentaires avec un élément pivot non nul (elles ne peuvent pas être la matrice zéro).
|
||||
On peut donc construire une matrice inversible composée uniquement de ces matrices élémentaires :
|
||||
\[ B = E_1(E_2(\cdots E_k(I_n))\cdots) \]
|
||||
Cette matrice $B$ est clairement inversible puisqu'elle a un pivot non nul dans chaque ligne (ou colonne), et donc son rang est égal à l'ordre de la matrice originale $A$.
|
||||
Ainsi, nous avons montré que si $\rank{A} = n$, il existe une matrice inversible composée uniquement de matrices élémentaires.
|
||||
To see this, suppose the columns of $A$ are linearly dependent. Then there exist scalars $c_1, c_2, ..., c_n$, not all zero, such that
|
||||
$$c_1 \mathbf{a}_1 + c_2 \mathbf{a}_2 + \dots + c_n \mathbf{a}_n = \mathbf{0}$$
|
||||
where $\mathbf{a}_i$ are the columns of $A$. This can be written as $A\mathbf{c} = \mathbf{0}$, where $\mathbf{c} = \begin{bmatrix} c_1 \\ c_2 \\ \vdots \\ c_n \end{bmatrix}$ is a non-zero vector.
|
||||
|
||||
If $A$ is invertible, then we can multiply both sides by $A^{-1}$:
|
||||
$$A^{-1}A\mathbf{c} = A^{-1}\mathbf{0} \implies \mathbf{c} = \mathbf{0}$$
|
||||
But this contradicts our assumption that $\mathbf{c}$ is a non-zero vector. Therefore, the columns of $A$ must be linearly independent.
|
||||
|
||||
Since $A$ is an $n \times n$ matrix with $n$ linearly independent columns, the column space of $A$ has dimension $n$. Therefore, rank$(A) = n$.
|
||||
|
||||
\Limpliespart
|
||||
|
||||
$\rank{A} = n$ implies that $A$ is an $n \times n$ matrix with $n$ linearly independent rows.
|
||||
Since the columns of $A$ are linearly independent and span $\K^n$, any vector $\mathbf{b} \in \K^n$ can be written as a linear combination of the columns of $A$. In other words, for any $\mathbf{b} \in \K^n$, the equation $A\mathbf{x} = \mathbf{b}$ has a solution. Since the columns are linearly independent, the solution is unique.
|
||||
|
||||
Consider the system $A\mathbf{x} = \mathbf{e}_i$, where $\mathbf{e}_i$ is the $i$-th standard basis vector in $\K^n$ (i.e., a vector with a 1 in the $i$-th position and 0s elsewhere). Since rank$(A) = n$, this system has a unique solution for each $i = 1, 2, ..., n$. Let $\mathbf{x}_i$ be the unique solution to $A\mathbf{x} = \mathbf{e}_i$.
|
||||
|
||||
Now, construct a matrix $B$ whose columns are the vectors $\mathbf{x}_1, \mathbf{x}_2, ..., \mathbf{x}_n$. Then $AB$ is a matrix whose $i$-th column is $A\mathbf{x}_i = \mathbf{e}_i$. Therefore, $AB = I_n$.
|
||||
|
||||
Since $AB = I_n$, we have shown that $A$ has a right inverse. For square matrices, if a right inverse exists, then it is also a left inverse. Therefore, $BA = I_n$ as well. Thus, $B = A^{-1}$, and $A$ is invertible.
|
||||
|
||||
\end{proof}
|
||||
|
||||
\begin{definition_sq} \label{definition:special_linear_group}
|
||||
L'ensemble \textbf{groupe spécial linéaire} noté $SL_n(\K)$ est le sous ensemble de $GL_n(\K)$ tel que le déterminant est égale à 1.
|
||||
L'ensemble \textbf{groupe spécial linéaire} noté $SL_n(\K)$ est le sous ensemble de $GL_n(\K)$ tel que le déterminant est égale à 1, c'est-à-dire
|
||||
$$SL_n(\K) := \{ A \in GL_n(\K) \suchthat \det(A) = 1\}$$
|
||||
\end{definition_sq}
|
||||
|
||||
\begin{theorem_sq}
|
||||
@ -274,11 +307,17 @@ Ainsi, nous avons montré que si $\rank{A} = n$, il existe une matrice inversibl
|
||||
\end{theorem_sq}
|
||||
|
||||
\begin{proof}
|
||||
Vérifions chaque axiome d'un groupe. $\det(\Identity_n) = 1 \equivalence \Identity_n \in SL_n(\K)$.
|
||||
Grâce aux propriétés du déterminant, on peut vérifier chaque axiome d'un sous-groupe \ref{definition:subgroup}
|
||||
|
||||
La propriété du déterminant $\forall (A, B) \in M_n(\K)^2, \det(AB) = \det(A)\det(B)$ permet de montrer les propositions suivantes :
|
||||
$$\forall (A, B) \in SL_n(\K)^2, \det(AB) = \det(A)\det(B) = 1 * 1 = 1 \implies AB \in SL_n(\K)$$
|
||||
$$\forall A \in SL_n(\K), \exists! A^{-1} \in GL_n(\K), 1 = \det(\Identity_n) = \det(AA^{-1}) = \det(A)\det(A^{-1}) = \det(A^{-1}) \implies A^{-1} \in SL_n(\K)$$
|
||||
\begin{itemize}
|
||||
\item{Magma : $\forall (A, B) \in SL_n(\K)^2, \det(AB) = \det(A)\det(B) = 1 \cdot 1 = 1 \implies AB \in SL_n(\K)$}
|
||||
\item{Présence de l'identité : $\det(\Identity_n) = 1 \implies \Identity_n \in SL_n(\K)$}
|
||||
\item{Présence de l'inverse : $\forall A \in SL_n(\K), \exists! A^{-1} \in GL_n(\K), 1 = \det(\Identity_n) = \det(AA^{-1}) = \det(A)\det(A^{-1}) = \det(A^{-1}) \implies A^{-1} \in SL_n(\K)$}
|
||||
\end{itemize}
|
||||
|
||||
Pour montrer qu'il s'agit d'un sous-groupe distingué, posons $x \in GL_n(\K)$ et $y \in SL_n(\K)$, nous pouvons en conclure
|
||||
|
||||
$\det(xyx^{-1}) = \det(x)\det(y)\det(x)^{-1} = 1 \implies xyx^{-1} \in SL_n(\K)$
|
||||
\end{proof}
|
||||
|
||||
\begin{theorem_sq}
|
||||
@ -290,13 +329,12 @@ Ainsi, nous avons montré que si $\rank{A} = n$, il existe une matrice inversibl
|
||||
$$A \prod\limits_{i = 1}^p M_i = \Identity_n$$
|
||||
\end{proof}
|
||||
|
||||
\pagebreak
|
||||
|
||||
\begin{theorem_sq}
|
||||
Une matrice $A \in M_n(\K)$ est inversible sur $\K$ si et seulement si $det(A) \neq 0$.
|
||||
\end{theorem_sq}
|
||||
|
||||
\begin{proof}
|
||||
\lipsum[2]
|
||||
% TODO Complete proof
|
||||
\end{proof}
|
||||
|
||||
@ -332,7 +370,7 @@ $a \in Tr_n$
|
||||
\begin{proof}
|
||||
Soit $A \in M_n(\K)$ ainsi qu'une norme subordonnée quelconque $\matrixnorm{.}$.
|
||||
|
||||
$$\forall n \in \N, \matrixnorm{\frac{A^n}{n!}} \le \frac{\matrixnorm{A^n}}{n!}$$
|
||||
$$\forall n \in \N, \left\lVert \frac{A^n}{n!} \right\rVert \le \frac{\matrixnorm{A^n}}{n!}$$
|
||||
\end{proof}
|
||||
|
||||
\begin{theorem_sq}
|
||||
@ -388,36 +426,34 @@ $a \in Tr_n$
|
||||
Les deux formules de polarisation s'en déduisent immédiatement.
|
||||
\end{proof}
|
||||
|
||||
\langsection{Espaces vectoriels}{Vectors spaces} \label{definition:vector_space}
|
||||
%TODO Complete section
|
||||
\langsection{Espaces vectoriels}{Vectors spaces}
|
||||
|
||||
Soit $(E, +)$ un groupe abélien \ref{definition:abelian_group} de $\K$
|
||||
\begin{definition_sq} \label{definition:vector_space}
|
||||
Un espace vectoriel $(E(\K), +, \cartesianProduct)$ sur un corps $\K$ est un tuple
|
||||
Soit $(E, +)$ un groupe abélien \ref{definition:abelian_group} de $\K$
|
||||
|
||||
\begin{itemize}
|
||||
\item{muni d'une loi de composition externe d'un corps $\K$ tel que $\function{(\cdot)}{K \cartesianProduct E}{E}$ vérifiant $(\alpha, x) \rightarrow \alpha x$}
|
||||
\end{itemize}
|
||||
\begin{itemize}
|
||||
\item{muni d'une loi de composition externe d'un corps $\K$ tel que $\function{(\cdot)}{K \cartesianProduct E}{E}$ vérifiant $(\alpha, x) \rightarrow \alpha x$}
|
||||
\end{itemize}
|
||||
|
||||
\bigskip
|
||||
Et vérifiant $\forall(\alpha, \beta) \in \K^2, \forall(a, b, c) \in E^3$
|
||||
\bigskip
|
||||
Et vérifiant $\forall(\alpha, \beta) \in \K^2, \forall(a, b, c) \in E^3$
|
||||
|
||||
\begin{itemize}
|
||||
\item{Unital en $(\cdot)$}
|
||||
\item{Distributivité (gauche et droite) $+$ de $\K \equivalence a(\alpha + \beta) = (\alpha + \beta)a = \alpha a + \beta a$}
|
||||
\item{Distributivité (gauche et droite) $*$ de $\K \equivalence a(\alpha * \beta) = (\alpha * \beta)a = \alpha(\beta a)$}
|
||||
\end{itemize}
|
||||
|
||||
\langsubsection{Famille libre}{Free family} \label{definition:vector_space_free_family}
|
||||
|
||||
\begin{definition_sq}
|
||||
Une famille \suite{e} est dite \textbf{libre} si
|
||||
$$\forall i \in \discreteInterval{1, n}, \lambda_i \in \K, \sum\limits_{i = 1}^n \lambda_i e_i = 0 \implies \lambda_i = 0$$
|
||||
\begin{itemize}
|
||||
\item{Unital en $(\cdot)$}
|
||||
\item{Distributivité (gauche et droite) $+$ de $\K \equivalence a(\alpha + \beta) = (\alpha + \beta)a = \alpha a + \beta a$}
|
||||
\item{Distributivité (gauche et droite) $*$ de $\K \equivalence a(\alpha * \beta) = (\alpha * \beta)a = \alpha(\beta a)$}
|
||||
\end{itemize}
|
||||
\end{definition_sq}
|
||||
|
||||
\langsubsection{Famille génératrice}{Generating family} \label{definition:vector_space_generating_family}
|
||||
\begin{definition_sq} \label{definition:vector_space_free_family}
|
||||
Une famille \suite{e} est dite \textbf{libre} si la seule combinaison linéaire qui annule \suite{e} est la combinaison linéaire nulle, c'est-à-dire
|
||||
$$\forall \lambda \in \K^n, \sum\limits_{i = 1}^n \lambda_i e_i = 0 \implies \lambda_i = 0$$
|
||||
\end{definition_sq}
|
||||
|
||||
\begin{definition_sq}
|
||||
Une famille \suite{e} est dite \textbf{génératrice} de $E$ si
|
||||
$$\forall v \in E, \exists \lambda \in \K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$$
|
||||
\begin{definition_sq} \label{definition:vector_space_generating_family}
|
||||
Une famille \suite{e} est dite \textbf{génératrice} d'un espace vectoriel \ref{definition:vector_space} $E$ si pour tout vecteur $v$ de $E$ il existe une combinaison linéaire de \suite{e} égale à $v$, c'est-à-dire
|
||||
$$\forall v \in E, \exists \lambda \in \K^n, \sum\limits_{i=1}^n \lambda_i e_i = v$$
|
||||
\end{definition_sq}
|
||||
|
||||
\langsubsection{Bases}{Basis} \label{definition:vector_space_basis}
|
||||
@ -484,7 +520,7 @@ $\implies F \subset G \lor G \subset F$
|
||||
|
||||
\langsubsection{Application linéaire}{Linear map} \label{definition:linearity}
|
||||
|
||||
\begin{definition_sq} \label{defintion:linear_map}
|
||||
\begin{definition_sq} \label{definition:linear_map}
|
||||
Une application $\function{f}{\K}{\K}$ est une \textbf{application linéaire} d'un $\K$-espace vectoriel $E$ si il respecte les axiomes suivants :
|
||||
\begin{itemize}
|
||||
\item{\lang{Additivité}{Additivity} : $\forall(x, y) \in E^2, f(x + y) = f(x) + f(y)$}
|
||||
|
Reference in New Issue
Block a user