Finishing Matrix and Relations

This commit is contained in:
Debucquoy Anthony 2023-03-06 22:37:43 +01:00
parent 8d95df507a
commit 53cfe9255a
Signed by: tonitch
GPG Key ID: A78D6421F083D42E
3 changed files with 51 additions and 4 deletions

View File

@ -29,7 +29,8 @@
- [Les Matrices](./math/all/matrix.md)
- [Math Discrète](./math/disc/index.md)
- [Initiation à la théorie des graphe](./math/disc/graph.md)
- [Mathématique modulaire](./math/disc/mod.md)
- [Nombres Premiers](./math/disc/prime.md)
- [Les Relations](./math/disc/relations.md)
# Physique générale I
- [Mecanique](./phys/meca/index.md)
- [Chapitre 1](./phys/meca/chap1.md)

View File

@ -9,8 +9,8 @@
- Soit \\(V \subseteq \mathbb{R} ^n\\)
- On dit que V est un **Sous-Ensemble Vectoriel** de \\(\mathbb{R}^n\\) ssi
1) \\(V \neq \emptyset \\)
2) \\(\forall v_1 \in V \quad \forall v_2 \in V v_1 + v_2 \in V \\)
3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \lambda * v \in V \\)
2) \\(\forall v_1 \in V \quad \forall v_2 \in V \quad v_1 + v_2 \in V \\)
3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \quad \lambda v \in V \\)
On peut voir par example que pour \\(\mathbb{R}^3\\) nous avons comme sous-ensemble vectoriel (SEV):
- \\(\\{(0,0)\\}\\) (L'origine du plan)
@ -50,9 +50,29 @@ Il pourrait alors y avoir plusieurs combinaisons différentes pour la même solu
## Dépendance linéaire
Qu'est ce que des vecteur linéairement dépendants ?
- Soient \\(v_1 ... v_k \in \mathbb{R}^n\\)
- On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement dépendant**
- SSI \\(\exists \lambda_1, ..., \lambda_k \in \mathbb{R}\\) **non-tous nuls**
- tel que \\(\lambda_1 v_1 + ... + \lambda_k v_k = \vec{0}\\)
- C'est un ensemble de vecteurs tel que le vecteurs nul en est leurs combinaison linéaire (ou les facteurs sont différents de tous 0)
- On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement indépendant**
- SSI \\( \forall \lambda_1, ..., \lambda_k \in \mathbb{R} \displaystyle\sum_{i=1}^{k} \lambda_i vi = 0 \implies \lambda_1 = ... = \lambda_k = 0 \\)
- La seule combinaison linéaire pour obtenir le vecteur nul est de multiplier tout les vecteurs par 0
Mais en général ca ne nous intéresse pas
Un ensemble de vecteurs linérairement indépendant est appelé une **Partie ou famille libre **
## Base
- Soit \\( V \subseteq \mathbb{R}^n \\) un SEV
- Soient \\( v_1, ..., v_k \in V \\)
- On dit que \\( \\{ v_1, ..., v_k \\}\\) est une **base de V** ssi, et
- \\( \\{ v_1, ..., v_k \\}\\) est une **famille libre**
- \\( \\{ v_1, ..., v_k \\}\\) est une **famille génératrice de V**
- B_1 et B_2 des bases de V:
- \\( |B_1| = |B_2| \\)
> Peut être à ajouter: Déf 17 TODO

View File

@ -173,3 +173,29 @@ On choisit ensuite une ligne a déveloper, au plus il y a de zeros au mieux c'es
- Si on développe la ie Ligne
- \\( \forall 1 \leq i \leq n \quad \det A = \displaystyle\sum_{j=n}^n a_{ij} * C_{ij} \\)
#### Inverse d'une matrice
Sachant que l'inverse d'un réel \\( x \\) est \\( x^{-1} \\) tel que \\( x * x^{-1} = 1\\)
On peut étendre cette définition aux matrice pour que \\( A * A^{-1} * A = \mathbb{I} \\)
Une matrice nxn est inversible ssi \\( \det A \neq 0 \\)
On peut trouver cette matrice inverse à l'aide de la matrice ompagnon.
1) On vérifie que le détérminanat est différent de 0
2) On applique des transformations élémentaires sur A et sur \\( \mathbb{I} \\) en même temps jusqu'a transformer \\( A \text{ en } \mathbb{I}\\)
> Mais comment utiliser la matrice inverse pour résoudre un system?
On sait que \\( A \cdot x = b \\) est la représentation d'un système en matrice.
\\[
\begin{align}
A*x &= b \\\\
A^{-1} * A * x &= A^{-1} * b \\\\
\mathbb{I} * x &= A^{-1} * b \\\\
x &= A^{-1} * b
\end{align}
\\]
où x est la matrice de variable, on aura donc nos solutions directement en mutlipliant nos matrices