Finishing Matrix and Relations
This commit is contained in:
parent
8d95df507a
commit
53cfe9255a
@ -29,7 +29,8 @@
|
|||||||
- [Les Matrices](./math/all/matrix.md)
|
- [Les Matrices](./math/all/matrix.md)
|
||||||
- [Math Discrète](./math/disc/index.md)
|
- [Math Discrète](./math/disc/index.md)
|
||||||
- [Initiation à la théorie des graphe](./math/disc/graph.md)
|
- [Initiation à la théorie des graphe](./math/disc/graph.md)
|
||||||
- [Mathématique modulaire](./math/disc/mod.md)
|
- [Nombres Premiers](./math/disc/prime.md)
|
||||||
|
- [Les Relations](./math/disc/relations.md)
|
||||||
# Physique générale I
|
# Physique générale I
|
||||||
- [Mecanique](./phys/meca/index.md)
|
- [Mecanique](./phys/meca/index.md)
|
||||||
- [Chapitre 1](./phys/meca/chap1.md)
|
- [Chapitre 1](./phys/meca/chap1.md)
|
||||||
|
@ -9,8 +9,8 @@
|
|||||||
- Soit \\(V \subseteq \mathbb{R} ^n\\)
|
- Soit \\(V \subseteq \mathbb{R} ^n\\)
|
||||||
- On dit que V est un **Sous-Ensemble Vectoriel** de \\(\mathbb{R}^n\\) ssi
|
- On dit que V est un **Sous-Ensemble Vectoriel** de \\(\mathbb{R}^n\\) ssi
|
||||||
1) \\(V \neq \emptyset \\)
|
1) \\(V \neq \emptyset \\)
|
||||||
2) \\(\forall v_1 \in V \quad \forall v_2 \in V v_1 + v_2 \in V \\)
|
2) \\(\forall v_1 \in V \quad \forall v_2 \in V \quad v_1 + v_2 \in V \\)
|
||||||
3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \lambda * v \in V \\)
|
3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \quad \lambda v \in V \\)
|
||||||
|
|
||||||
On peut voir par example que pour \\(\mathbb{R}^3\\) nous avons comme sous-ensemble vectoriel (SEV):
|
On peut voir par example que pour \\(\mathbb{R}^3\\) nous avons comme sous-ensemble vectoriel (SEV):
|
||||||
- \\(\\{(0,0)\\}\\) (L'origine du plan)
|
- \\(\\{(0,0)\\}\\) (L'origine du plan)
|
||||||
@ -50,9 +50,29 @@ Il pourrait alors y avoir plusieurs combinaisons différentes pour la même solu
|
|||||||
|
|
||||||
## Dépendance linéaire
|
## Dépendance linéaire
|
||||||
|
|
||||||
|
Qu'est ce que des vecteur linéairement dépendants ?
|
||||||
|
|
||||||
- Soient \\(v_1 ... v_k \in \mathbb{R}^n\\)
|
- Soient \\(v_1 ... v_k \in \mathbb{R}^n\\)
|
||||||
- On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement dépendant**
|
- On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement dépendant**
|
||||||
- SSI \\(\exists \lambda_1, ..., \lambda_k \in \mathbb{R}\\) **non-tous nuls**
|
- SSI \\(\exists \lambda_1, ..., \lambda_k \in \mathbb{R}\\) **non-tous nuls**
|
||||||
- tel que \\(\lambda_1 v_1 + ... + \lambda_k v_k = \vec{0}\\)
|
- tel que \\(\lambda_1 v_1 + ... + \lambda_k v_k = \vec{0}\\)
|
||||||
|
- C'est un ensemble de vecteurs tel que le vecteurs nul en est leurs combinaison linéaire (ou les facteurs sont différents de tous 0)
|
||||||
|
- On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement indépendant**
|
||||||
|
- SSI \\( \forall \lambda_1, ..., \lambda_k \in \mathbb{R} \displaystyle\sum_{i=1}^{k} \lambda_i vi = 0 \implies \lambda_1 = ... = \lambda_k = 0 \\)
|
||||||
|
- La seule combinaison linéaire pour obtenir le vecteur nul est de multiplier tout les vecteurs par 0
|
||||||
|
|
||||||
|
Un ensemble de vecteurs linérairement indépendant est appelé une **Partie ou famille libre **
|
||||||
|
|
||||||
|
## Base
|
||||||
|
|
||||||
|
- Soit \\( V \subseteq \mathbb{R}^n \\) un SEV
|
||||||
|
- Soient \\( v_1, ..., v_k \in V \\)
|
||||||
|
- On dit que \\( \\{ v_1, ..., v_k \\}\\) est une **base de V** ssi, et
|
||||||
|
- \\( \\{ v_1, ..., v_k \\}\\) est une **famille libre**
|
||||||
|
- \\( \\{ v_1, ..., v_k \\}\\) est une **famille génératrice de V**
|
||||||
|
- B_1 et B_2 des bases de V:
|
||||||
|
- \\( |B_1| = |B_2| \\)
|
||||||
|
|
||||||
|
> Peut être à ajouter: Déf 17 TODO
|
||||||
|
|
||||||
|
|
||||||
Mais en général ca ne nous intéresse pas
|
|
||||||
|
@ -173,3 +173,29 @@ On choisit ensuite une ligne a déveloper, au plus il y a de zeros au mieux c'es
|
|||||||
- Si on développe la ie Ligne
|
- Si on développe la ie Ligne
|
||||||
- \\( \forall 1 \leq i \leq n \quad \det A = \displaystyle\sum_{j=n}^n a_{ij} * C_{ij} \\)
|
- \\( \forall 1 \leq i \leq n \quad \det A = \displaystyle\sum_{j=n}^n a_{ij} * C_{ij} \\)
|
||||||
|
|
||||||
|
#### Inverse d'une matrice
|
||||||
|
|
||||||
|
Sachant que l'inverse d'un réel \\( x \\) est \\( x^{-1} \\) tel que \\( x * x^{-1} = 1\\)
|
||||||
|
|
||||||
|
On peut étendre cette définition aux matrice pour que \\( A * A^{-1} * A = \mathbb{I} \\)
|
||||||
|
Une matrice nxn est inversible ssi \\( \det A \neq 0 \\)
|
||||||
|
|
||||||
|
On peut trouver cette matrice inverse à l'aide de la matrice ompagnon.
|
||||||
|
1) On vérifie que le détérminanat est différent de 0
|
||||||
|
2) On applique des transformations élémentaires sur A et sur \\( \mathbb{I} \\) en même temps jusqu'a transformer \\( A \text{ en } \mathbb{I}\\)
|
||||||
|
|
||||||
|
> Mais comment utiliser la matrice inverse pour résoudre un system?
|
||||||
|
|
||||||
|
On sait que \\( A \cdot x = b \\) est la représentation d'un système en matrice.
|
||||||
|
\\[
|
||||||
|
\begin{align}
|
||||||
|
A*x &= b \\\\
|
||||||
|
A^{-1} * A * x &= A^{-1} * b \\\\
|
||||||
|
\mathbb{I} * x &= A^{-1} * b \\\\
|
||||||
|
x &= A^{-1} * b
|
||||||
|
\end{align}
|
||||||
|
\\]
|
||||||
|
|
||||||
|
où x est la matrice de variable, on aura donc nos solutions directement en mutlipliant nos matrices
|
||||||
|
|
||||||
|
|
||||||
|
Loading…
Reference in New Issue
Block a user