Compare commits
27 Commits
27b327e3f9
...
master
Author | SHA1 | Date | |
---|---|---|---|
9fdef4993a
|
|||
966a6305c0
|
|||
5a0fc2f782
|
|||
f4633d2ba4
|
|||
ba0f6f5f2e
|
|||
22d8d27780
|
|||
4f171ccfe9
|
|||
2923f91c2f
|
|||
edd7fe36ea
|
|||
b3a881d99c
|
|||
de44d6cedf
|
|||
71d8d2a099
|
|||
e27ebeec23
|
|||
d47b4aafe6
|
|||
d99b3c44f1
|
|||
7470e6e9c5
|
|||
32ba1c9406
|
|||
95e7f55556
|
|||
53cfe9255a
|
|||
8d95df507a
|
|||
a51ef4b402
|
|||
4e8ca19028
|
|||
52e62f3557
|
|||
8da6a8e7ee
|
|||
ab4d6c8280
|
|||
9217723f89 | |||
b4919f684d |
@ -25,7 +25,31 @@
|
||||
- [Dérivabilité des fonctions](./math/calculus/chap3.md)
|
||||
- [Développement de Taylor](./math/calculus/chap4.md)
|
||||
- [Algèbre Linéaire](./math/all/index.md)
|
||||
- [Espaces Euclidiens ?](./math/all/chap1.md)
|
||||
- [Les Espaces Vectoriels](./math/all/chap1.md)
|
||||
- [Application Linéaire](./math/all/chap2.md)
|
||||
- [Valeur/Vecteur/Espaces propres](./math/all/vpropres.md)
|
||||
- [Les Matrices](./math/all/matrix.md)
|
||||
- [Math Discrète](./math/disc/index.md)
|
||||
- [Initiation à la théorie des graphe](./math/disc/graph.md)
|
||||
- [Nombres Premiers](./math/disc/prime.md)
|
||||
- [Les Relations](./math/disc/relations.md)
|
||||
- [Preuve par Induction](./math/disc/induction.md)
|
||||
# Physique générale I
|
||||
- [Mecanique](./phys/meca/index.md)
|
||||
- [Chapitre 1](./phys/meca/chap1.md)
|
||||
- [Electromagnétisme](./phys/elec/index.md)
|
||||
- [Les Forces Electriques](./phys/elec/chap1.md)
|
||||
# Informatique
|
||||
- [Algo1](./info/algo1/index.md)
|
||||
- [Algo2](./info/algo2/index.md)
|
||||
- [fonctionnement des ordinateurs](./info/fdo/index.md)
|
||||
- [Intro](./info/fdo/chap1.md)
|
||||
- [Representation des donnees](./info/fdo/chap2.md)
|
||||
- [Conception logique](./info/fdo/chap3.md)
|
||||
- [Processeur mono-cycles](./info/fdo/chap4.md)
|
||||
- [Assemblage et Compilation](./info/fdo/chap5.md)
|
||||
- [Entrees et sorties](./info/fdo/chap6.md)
|
||||
- [Hierarchie des memoires](./info/fdo/chap7.md)
|
||||
# Economie
|
||||
- [Chapitre 1 - Introduction à l'économie](./eco/chap1.md)
|
||||
- [Chapitre 2 - Comprendre le fonctionnement des marchés](./eco/chap2.md)
|
||||
|
51
src/eco/chap1.md
Normal file
51
src/eco/chap1.md
Normal file
@ -0,0 +1,51 @@
|
||||
# Introduction à l'économie
|
||||
|
||||
> Cette partie ne sert pas car n'est pas dans l'examen pour les infos
|
||||
|
||||
|
||||
## Scope
|
||||
|
||||
- Quelle quantité produire, a quel prix, comment, facteur de production, d'emploi pour les entreprises
|
||||
- Consomation, rôles des différents facteurs (prix, pub, ...) peuvent jouer?
|
||||
- Comprendre comment concilier consommation et production.
|
||||
|
||||
### Raretée
|
||||
|
||||
La raretée dépend de l'écart entre ce que veulent les gens et ce qui peut être produit
|
||||
|
||||
- Désir de consomation illimité mais resources limitées
|
||||
- 3 facteurs de productions
|
||||
- Travail (limite quantitative et qualitative)
|
||||
- Capital (limite quantitative et qualitative)
|
||||
- Resources
|
||||
|
||||
Nous étudions alors comment consommateurs et producteur
|
||||
|
||||
## Branches d'études
|
||||
|
||||
### La macroéconomie
|
||||
|
||||
étude de l'économie comme un tout (PIB, Inflation, Chômage).
|
||||
Utilisation optimale des resources comme le chômage, ...
|
||||
Dans une optique de croissance durable de l'ensemble de la production
|
||||
|
||||
- DG > OG => risque d'inflation, déficit éxtérieurs
|
||||
- DG < OG => risque de récéssion, chomage
|
||||
|
||||
Le but de la macroéconomie est d'assurer OG = DG via politiques de demande et d'offre
|
||||
et une armonie dans la croissance d'OG et DG
|
||||
|
||||
### La microéconomie
|
||||
|
||||
Etudie l'offre et la demande de biens spécifiques
|
||||
|
||||
Répond à 3 questions:
|
||||
- Que produire, en quelle quantités?
|
||||
- comment produire. Techniques, resources, ...
|
||||
- pour qui produire, comment distribuer?
|
||||
|
||||
les choix impliquent des sacrificess. la production d'un bien entraine le sacrifice d'au moins un autre.
|
||||
Ces choix doivent être rationnels. La comparaison entre cout mariginal (Cm) et bénéfices marginal (Bm).
|
||||
- Bm > Cm => intensification de l'activitée
|
||||
- Bm < Cm => réduction de l'activitée
|
||||
|
77
src/eco/chap2.md
Normal file
77
src/eco/chap2.md
Normal file
@ -0,0 +1,77 @@
|
||||
# Comprendre le fonctionnement des marchés
|
||||
|
||||
## La demande
|
||||
|
||||
Quantitée demandée qu'un consommateur souhaite acheter pour un prix donné
|
||||
- Toutes choses égales par ailleurs (tecepa)
|
||||
- à un moment donné
|
||||
|
||||
Demande de marchés = \\( \sum \\) demandes individuelles
|
||||
|
||||
### Loi de la demande
|
||||
|
||||
Si le prix augmente, la quantitée demandée diminue:
|
||||
- l'éffet revenu: Prix augmente => pouvoir d'achat diminue => Qd augmente/diminue en fct du type de bien
|
||||
- l'effet substitution: Prix augmente => Qd diminue et Qd d'autres biens augmente
|
||||
|
||||
### Courbe de demande
|
||||
|
||||
représente graphiquement la demande.
|
||||
|
||||
x => Quantitée; y => Prix (même si la quantitée dépend du prix); courbe à pente négative
|
||||
|
||||
\\[
|
||||
Qd = f(P, ...) \\\\
|
||||
Qd = a - b * P
|
||||
\\]
|
||||
|
||||
où ... = gouts, prix et nombre de biens substituts, ...
|
||||
|
||||
où a est l'intercept et -b la pente (= dQd/dP)
|
||||
|
||||
Lorsque le prix du bien change, la quantitée demandée change en se déplaçant sur la courbe
|
||||
|
||||
Si une autre variable (tecepa/...) change, alors la courbe se déplace.
|
||||
- vers la droite si la Qd augmente
|
||||
- vers la gauche si la Qd diminue
|
||||
|
||||
## L'offre
|
||||
|
||||
Quantitée offerte qu'un producteur souhaite acheter pour un prix donné
|
||||
- Toutes choses égales par ailleurs (tecepa)
|
||||
- à un moment donné
|
||||
|
||||
Offre de marchés = \\( \sum \\) offres individuelles
|
||||
|
||||
### Loi de l'offre
|
||||
|
||||
Si le prix augmente, la quantitée offerte augmente:
|
||||
|
||||
### Courbe de demande
|
||||
|
||||
représente graphiquement l'offre
|
||||
|
||||
x => Quantitée; y => Prix (même si la quantitée dépend du prix); courbe à pente positive
|
||||
|
||||
\\[
|
||||
Qo = f(P, ...) \\\\
|
||||
Qo = c + d * P
|
||||
\\]
|
||||
|
||||
où ... = couts de prod, profitabilité, chocs aléatoires, anticipations, ...
|
||||
|
||||
où c est l'intercept et d la pente (= dQo/dP)
|
||||
|
||||
Lorsque le prix du bien change, la quantitée offerte change en se déplaçant sur la courbe
|
||||
|
||||
Si une autre variable (tecepa/...) change, alors la courbe se déplace.
|
||||
- vers la droite si la Qo augmente
|
||||
- vers la gauche si la Qo diminue
|
||||
|
||||
## Le prix et quantitée échangée à l'équilibre
|
||||
|
||||
- Qd > Qo, (Pénurie) => Prix augmente => Qd diminue et Qo augmente
|
||||
- Qd < Qo, (Surplus) => Prix diminue => Qd augmente et Qo diminue
|
||||
- Qd = Qo, (Equilibre) => aucune pression sur P
|
||||
|
||||
L'équilibre d'un marché est attein par régulation des prix par les lois d'offre et de demande
|
1
src/info/algo1/index.md
Normal file
1
src/info/algo1/index.md
Normal file
@ -0,0 +1 @@
|
||||
# Algo1
|
1
src/info/algo2/index.md
Normal file
1
src/info/algo2/index.md
Normal file
@ -0,0 +1 @@
|
||||
# Algo2
|
68
src/info/fdo/chap1.md
Normal file
68
src/info/fdo/chap1.md
Normal file
@ -0,0 +1,68 @@
|
||||
# Intro
|
||||
|
||||
## Modele d'un Ordinateur
|
||||
|
||||
Nous trouvons des processeurs partout. sur ceux-ci nous pouvons faire tourner un grand nombre d'application
|
||||
petit ou grand. Ils sont tres polyvalant
|
||||
|
||||
Plusieurs categories de processeurs
|
||||
- Generalistes
|
||||
- polyvalents
|
||||
- traitement de texte, tableur, ...
|
||||
- Serveurs
|
||||
- Specialises, partages
|
||||
- Bdd, streaming, hc
|
||||
- Systemes embarques
|
||||
- tres specialises
|
||||
- concus pour une application unique ex: machine a laver, telecommande
|
||||
|
||||
Une grande partie des processeurs sont des systems emabarques, Les processeur d'ordinateurs ou de serveurs sont une minoritee
|
||||
|
||||
Un oridnateur contient:
|
||||
- Processeur
|
||||
- Memoire
|
||||
- Horloge
|
||||
- I/O
|
||||
|
||||
## Excution des instructions
|
||||
|
||||
Dans un processeur, nous avons des registres, ces registres sont une sorte de memoire des processeur transferee depuis la memoire
|
||||
|
||||
Le processeur execute une suite de tache en boucle
|
||||
1) lire l'instruction
|
||||
2) evaluer l'instruction
|
||||
3) executer l'instruction
|
||||
4) passer a l'instruction suivante
|
||||
|
||||
Le processeur utilise de la memoire, au plus la memoire est loins, au plus le temps d'execution est faible
|
||||
|
||||
## Interface Logiciel / Materiel
|
||||
|
||||
Les processeurs ont differentes architectures:
|
||||
- x86
|
||||
- arm
|
||||
- mips (avec laquel nous travaillerons)
|
||||
- risc-v
|
||||
|
||||
Suivant l'architecture, nous avons un "jeu d'instruction" differentes
|
||||
|
||||
### Abstraction Materiel
|
||||
- Comment simplifier la conception de programmes
|
||||
- Comment en augmenter la portabilite
|
||||
- Cacher les details materiels du systeme
|
||||
- deleguer la gestion des ressources du systeme
|
||||
|
||||
Nous avons des languages de haut-niveau et des language de bas niveau
|
||||
- Language de bas de niveau
|
||||
- language machine, assembleur
|
||||
- Language de Haut niveau
|
||||
- Plus comprehensible par l'humain
|
||||
|
||||
le haut-niveau est compile en assembleur et ensuite est assembler en binaire (1/0) qui sont des courant electriques physiques
|
||||
|
||||
## Densitee des composants
|
||||
|
||||
Les composants des ordinateurs sont de plus en plus petits suivant la loie de moore
|
||||
|
||||
Une plus grande frequence des processeur implique une qugmentation du courant necessaire et de la surchaufe ( donc duree de vie )
|
||||
Les processeurs vont maintenant moduler leurs frequences en fonction de la charge de travaille
|
26
src/info/fdo/chap2.md
Normal file
26
src/info/fdo/chap2.md
Normal file
@ -0,0 +1,26 @@
|
||||
# Representation des donnees
|
||||
|
||||
## Notation des Nombres
|
||||
|
||||
### Representation decimale
|
||||
|
||||
Un nombre naturel x est represente par un mot w compose de N chiffres \\( w _ i \\) pris dans \\(S_{10}\\)
|
||||
|
||||
Poids des chiffres: Chaques chiffre d'un mot w est associe a un poids en fonction de sa position
|
||||
|
||||
Nombres de possibilitee
|
||||
|
||||
pour un mot de N chiffres, nous avons donc 10^N nombre possibles
|
||||
|
||||
L'interval de chiffres possibles est de \\([0, 10^N -1]\\)
|
||||
|
||||
Pour trouver la taille d'un mot, on a \\(N \geq \lceil log10(x+1)\rceil\\)
|
||||
|
||||
## Representation positionnelle generalisee
|
||||
|
||||
TODO: Generalisation
|
||||
|
||||
representation binaire a partira de generalisation
|
||||
|
||||
|
||||
## Nombres dans un Ordinateur
|
1
src/info/fdo/chap3.md
Normal file
1
src/info/fdo/chap3.md
Normal file
@ -0,0 +1 @@
|
||||
# Conception logique
|
1
src/info/fdo/chap4.md
Normal file
1
src/info/fdo/chap4.md
Normal file
@ -0,0 +1 @@
|
||||
# Processeur mono-cycles
|
1
src/info/fdo/chap5.md
Normal file
1
src/info/fdo/chap5.md
Normal file
@ -0,0 +1 @@
|
||||
# Assemblage et Compilation
|
1
src/info/fdo/chap6.md
Normal file
1
src/info/fdo/chap6.md
Normal file
@ -0,0 +1 @@
|
||||
# Entrees et sorties
|
1
src/info/fdo/chap7.md
Normal file
1
src/info/fdo/chap7.md
Normal file
@ -0,0 +1 @@
|
||||
# Hierarchie des memoires
|
1
src/info/fdo/index.md
Normal file
1
src/info/fdo/index.md
Normal file
@ -0,0 +1 @@
|
||||
# fonctionnement des ordinateurs
|
@ -1,4 +1,4 @@
|
||||
# Titre à définir
|
||||
# Les Espaces Vectoriels
|
||||
|
||||
## Etudions \\( R^2 \\)
|
||||
|
||||
@ -9,6 +9,81 @@
|
||||
- Soit \\(V \subseteq \mathbb{R} ^n\\)
|
||||
- On dit que V est un **Sous-Ensemble Vectoriel** de \\(\mathbb{R}^n\\) ssi
|
||||
1) \\(V \neq \emptyset \\)
|
||||
2) \\(\forall v_1 \in V \quad \forall v_2 \in V v_1 + v_2 \in V \\)
|
||||
3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \lambda * v \in V \\)
|
||||
2) \\(\forall v_1 \in V \quad \forall v_2 \in V \quad v_1 + v_2 \in V \\)
|
||||
3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \quad \lambda v \in V \\)
|
||||
|
||||
On peut voir par example que pour \\(\mathbb{R}^3\\) nous avons comme sous-ensemble vectoriel (SEV):
|
||||
- \\(\\{(0,0)\\}\\) (L'origine du plan)
|
||||
- \\(\\{\lambda \in \mathbb{R} \vert \lambda(x, y)\\}\\) (une droite passant par l'origine du plan)
|
||||
- \\(\\{\lambda , \mu \in \mathbb{R} \vert \lambda(x_1, y_1) + \mu(x_2,y_2)\\}\\) (un plan passant par l'origine du repère)
|
||||
- \\( \mathbb{R}^3 \\) (l'ensemble lui même)
|
||||
|
||||
et nous pouvons ettendre cette definition pour \\(\mathbb{R}^N\\)
|
||||
|
||||
## Combinaisons linéaires
|
||||
|
||||
- Soit \\(V \subseteq \mathbb{R}^n\\) un SEV
|
||||
- Soient \\(v_1, ..., v_k \in \mathbb{R} \quad \text{Soit } v \in V\\)
|
||||
- On dit que \\(v \\) est une **Combinaison Linéaire** de \\(v_1, ..., v_k\\)
|
||||
- Ssi \\(\exists \lambda_1, ..., \lambda_k \in \mathbb{R} \quad v = \lambda_1 v_1 + ... + \lambda_k v_k\\)
|
||||
> - Examples
|
||||
> - Dans \\(\mathbb{R}^2 \quad (2,3)\\) est une **combinaison linéaire** de (1,0) et (0,1).
|
||||
> - On peut multiplier (1,0) par 2 et (0,1) par 3.
|
||||
> - Contre-Example
|
||||
> - Dans \\(\mathbb{R}^3 \quad (1,2,3)\\) n'est pas **combinaison linéaire** de (1,0,0), (0,1,0) et (1,1,0)
|
||||
> - Le système d'équation n'a pas de solutions (3 = 0 est faux) donc imposible, Aucuns réel ne peux multiplier ces vecteurs pour donner (1,2,3)
|
||||
|
||||
- Soient \\( v_1 ... v_k \in \mathbb{R}^n\\)
|
||||
- L'**espace vectoriel** engendré par \\(v_1 ... v_k\\), noté \\(<v_1 ... v_k>\\) est l'ensemble des combinaisons linéaire de \\(v^1...v^k\\)
|
||||
- \\(<v_1 ... v_k> = \\{(x_1, ..., x_k) \in \mathbb{R}^n \vert \exists \lambda_1 \in \mathbb{R}...\exists\lambda_k \in \mathbb{R} (x_1, ..., x_k) = \lambda_1 v_1 + ... + \lambda_k v_k\\}\\)
|
||||
|
||||
- Soit \\(V \subseteq \mathbb{R}^n \\) un SEV
|
||||
- Soit \\(v_1 ... v_k \in V\\)
|
||||
- On dit que \\(\\{v_1 ... v_k\\}\\) est **une partie (ou famille) génératrice** de V
|
||||
- SSI \\(V = <v_1 ... v_k>\\)
|
||||
> - Example
|
||||
> - \\(\\{(1,0,0), (1,0,1)\\}\\) est **une famille génératrice** de \\(<(1,0,0), (1,0,0)>) = \\\{(x_1, x_2, x_3) \in \mathbb{R}^3 \vert x_2 = 0\\}\\)
|
||||
|
||||
Le fait d'ajouter plus de vecteurs que nécéssaires est possible mais n'est pas recommendé car celà ajoute de la complexitée et/ou de l'ambiguitée
|
||||
lors de la combinaisons des vecteurs.
|
||||
Il pourrait alors y avoir plusieurs combinaisons différentes pour la même solutions
|
||||
|
||||
## Dépendance linéaire
|
||||
|
||||
Qu'est ce que des vecteur linéairement dépendants ?
|
||||
|
||||
- Soient \\(v_1 ... v_k \in \mathbb{R}^n\\)
|
||||
- On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement dépendant**
|
||||
- SSI \\(\exists \lambda_1, ..., \lambda_k \in \mathbb{R}\\) **non-tous nuls**
|
||||
- tel que \\(\lambda_1 v_1 + ... + \lambda_k v_k = \vec{0}\\)
|
||||
- C'est un ensemble de vecteurs tel que le vecteurs nul en est leurs combinaison linéaire (ou les facteurs sont différents de tous 0)
|
||||
- On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement indépendant**
|
||||
- SSI \\( \forall \lambda_1, ..., \lambda_k \in \mathbb{R} \displaystyle\sum_{i=1}^{k} \lambda_i vi = 0 \implies \lambda_1 = ... = \lambda_k = 0 \\)
|
||||
- La seule combinaison linéaire pour obtenir le vecteur nul est de multiplier tout les vecteurs par 0
|
||||
|
||||
Un ensemble de vecteurs linérairement indépendant est appelé une **Partie ou famille libre **
|
||||
|
||||
- Soit \\( L: V_1 \to V_2 \\) Une application linéaire tq \\( Ker(L) = {0} \\)
|
||||
- Si \\( \\{ v_1, ... v_k \\} \\) est une famille libre dans \\( V_1 \\)
|
||||
- Alors \\( \\{ L(v_1), ..., L(v_2) \\} \\) est une famille libre dans \\( V_2 \\)
|
||||
|
||||
## Base
|
||||
|
||||
- Soit \\( V \subseteq \mathbb{R}^n \\) un SEV
|
||||
- Soient \\( v_1, ..., v_k \in V \\)
|
||||
- On dit que \\( \\{ v_1, ..., v_k \\}\\) est une **base de V** ssi, et
|
||||
- \\( \\{ v_1, ..., v_k \\}\\) est une **famille libre**
|
||||
- \\( \\{ v_1, ..., v_k \\}\\) est une **famille génératrice de V**
|
||||
- B_1 et B_2 des bases de V:
|
||||
- \\( |B_1| = |B_2| \\)
|
||||
|
||||
- Soit \\( V \subset \mathbb{R}^n \\)
|
||||
- Soit \\( B \text{ une Base de } V \\) constituée de \\( k \\) éléments
|
||||
- On dit que V est de **Dimention** k. noté \\( dim(V) = k \\)
|
||||
|
||||
- Soit \\( V \\) un sous-espace vectoriel de \\( \mathbb{R}^n \\)
|
||||
- Soit \\( B: \\{ v_1, ..., ...v_k \\} \\) une base de V.
|
||||
- Soit \\( v \in V \quad v = \lambda_1 * v_1 + ... + \lambda_k * v_k \\)
|
||||
- \\( (\lambda_1, ..., \lambda_k) \\) sont **les coordonées de v dans la base B**
|
||||
|
||||
|
||||
|
62
src/math/all/chap2.md
Normal file
62
src/math/all/chap2.md
Normal file
@ -0,0 +1,62 @@
|
||||
# Application Linéaire
|
||||
|
||||
Nous parlons maintenant de fonctions.
|
||||
|
||||
Nous avons vu les fonctions:
|
||||
|
||||
- **Injective**: \\( \forall a_1, a_2 \in A \quad a_1 \neq a_2 \implies f(a_1) \neq f(a_2)\\)
|
||||
- **Surjective**: \\( \forall b \in B \exists a \in A \quad f(a) = b \\) (Tout les points sources ont une destination)
|
||||
- **Bijective**: Injective & Surjective
|
||||
|
||||
[Rappels Fonctions](/math/logique/fonctions.md)
|
||||
|
||||
## Application Linéaire
|
||||
|
||||
- Soient \\( V_1, V_2 \subseteq \mathbb{R}^n \\)
|
||||
- On dit que \\( L: V_1 \to V_2\\) est une **Application Linéaire** ssi
|
||||
1) \\( \forall u, v \in V_1 \quad L(u+v) = L(u) + L(v) \\)
|
||||
2) \\( \forall \lambda \in \mathbb{R} \quad L(\lambda v) = \lambda L(v) \\)
|
||||
|
||||
| Exemples | Contre-Exemples |
|
||||
| --------- | --------------- |
|
||||
| L(x) = x | L(x) = \|x\| |
|
||||
| L(x) = 2x | L(x) = 2x + 1 |
|
||||
| | L(x) = x² |
|
||||
| | L(x) = sin(x) |
|
||||
|
||||
## Image et Noyaux
|
||||
|
||||
- Soit \\( L: V_1 \to V_2 \\) Une application Linéaire
|
||||
- \\( Ker(L) = \\{ v \in V_1 \mid L(v)=0 \\} \\) Noyau de L
|
||||
- \\( Im(L) = \\{ v \in V_2 \mid \exists u \in V_1 \quad L(u) = v \\} \\) Image de L
|
||||
|
||||
### Théorem du Rang
|
||||
|
||||
- Soit \\( L: V_1 \to V_2 \\)
|
||||
- \\( Dim(Ker(L)) + Dim(Im(L)) = Dim(V_1) \\)
|
||||
|
||||
## Matrice → Application Linéaire
|
||||
|
||||
- Soit \\( M \in \mathbb{R}^{n \times m} \\)
|
||||
- L'application linéaire associée à \\( M \\) notée \\( L_M \\)
|
||||
- \\( L_M : \mathbb{R}^m \to \mathbb{R}^n \quad \text{ définit par } L_M(v)= \underset{n \times m}{M} \cdot \underset{m \times 1}{v} \\)
|
||||
|
||||
## Application Linéaire → Matrice
|
||||
|
||||
\\[
|
||||
L: V_1 \to V_2 \leadsto M_L^{B_1 \to B_2}
|
||||
\\]
|
||||
|
||||
1) Choisir une Base \\( B_1 = \\{ e_1, ..., e_n \\} \text{ de } V_1 \text{ et } B_2 = \\{ E_1, ..., E_k \\} \text{ de } V_2\\)
|
||||
2) Pour chaques \\( e_i \in B_1 \text{, calculer} L(e_i)\\)
|
||||
3) Pour chaques \\( e_i \in B_1 \text{, exprimer } L(e_i) \text{ comme combi. li. de } E_1 ... E_k \\)
|
||||
4) Transformation en matrice
|
||||
5) On peut ensuite faire un "Sanity Check" en fesant l'opération inverse
|
||||
|
||||
## Composé d'application linéaires
|
||||
|
||||
On parle de \\( L_2 \circ L_1 \\) pour \\( L: V_1 \to V_2 \to V_3 \\)
|
||||
|
||||
On veut \\( M_{L_2 \circ L_1}^{B_1 \to B_3} \\)
|
||||
|
||||
Pour ca on fait : \\( M_{L_2}^{B_2 \to B_3} * M_{L_2}^{B_1 \to B_2} \\)
|
217
src/math/all/matrix.md
Normal file
217
src/math/all/matrix.md
Normal file
@ -0,0 +1,217 @@
|
||||
# Les Matrices
|
||||
|
||||
On considére un system:
|
||||
|
||||
\\[
|
||||
\begin{cases}
|
||||
x - 2y + 3z = 4 \\\\
|
||||
2x + y - 4z = 3 \\\\
|
||||
-3x + 5y -z = 0
|
||||
\end{cases}
|
||||
\\]
|
||||
|
||||
Un système est caractérisé par ses cohéfficients et par les thermes indépendants.
|
||||
Les nombres sont placés à des positions bien précises.
|
||||
On peut représenter ces nombres dans un tableau
|
||||
|
||||
\\[
|
||||
\begin{pmatrix}
|
||||
1 &-2 &3 &4 \\\\
|
||||
2 &1 &-4 &3 \\\\
|
||||
-3 &5 &-1 &0
|
||||
\end{pmatrix}
|
||||
\text{ On dit que M est une matrice de taille } 3 * 4
|
||||
\\]
|
||||
|
||||
Une matrice de taille \\( m * n \quad (m,n \in \mathbb{N}_ 0 ) \\) est un tableau
|
||||
dont les éléments sont rangés selon m lignes et n colonnes
|
||||
|
||||
\\[
|
||||
A = \begin{pmatrix}
|
||||
a_{11} &a_{12} &\cdots &a_{1n} \\\\
|
||||
a_{21} &a_{22} &\cdots &\vdots \\\\
|
||||
\vdots &\vdots &\ddots &\vdots \\\\
|
||||
a_{m1} &\cdots &\cdots &a_{mn}
|
||||
\end{pmatrix}
|
||||
a_{23} \text{ est situé 2e ligne, 3e colonne } \\\\
|
||||
A = (a_{ij} a_{ij} \text{ est un terme de } A)
|
||||
\\]
|
||||
|
||||
## Operations sur les matrices
|
||||
|
||||
### Egalitée
|
||||
|
||||
\\( A = B \iff A \text{ et } B \\) ont la même taille et \\( a_{ij} = b_{ij} \quad \forall i,j \\)
|
||||
|
||||
### Transposition
|
||||
|
||||
\\( A^t \\) est la matrice dont les lignes et les colonnes de \\( A \\) sont inversée
|
||||
|
||||
#### Exemple
|
||||
|
||||
\\[
|
||||
A = \begin{pmatrix}
|
||||
1 &2 \\\\
|
||||
3 &4
|
||||
\end{pmatrix}
|
||||
A^t = \begin{pmatrix}
|
||||
1 &3 \\\\
|
||||
2 &4
|
||||
\end{pmatrix}
|
||||
\\]
|
||||
|
||||
### Produit par un scalaire
|
||||
|
||||
- Soit \\( A \in \mathbb{R}^{m * n} \quad k \in \mathbb{R} \\)
|
||||
- La matrice \\( k * a \\) est une matrice \\( B \\) de taille \\( m * n \\) tel que
|
||||
- \\( b_{ij} ka_{ij} \quad \forall i,j \\)
|
||||
|
||||
#### Exemple
|
||||
|
||||
\\[
|
||||
2\begin{pmatrix}
|
||||
1 &2 &3\\\\
|
||||
4 &5 &6
|
||||
\end{pmatrix}
|
||||
= \begin{pmatrix}
|
||||
2 &4 &6\\\\
|
||||
8 &10 &12
|
||||
\end{pmatrix}
|
||||
\\]
|
||||
|
||||
### Produit de 2 matrices
|
||||
|
||||
|
||||
\\[
|
||||
A * B = C \quad
|
||||
\begin{align}
|
||||
c_{ij} &= a_{ij} * b_{ij} + ... a_{in} * b_{nj} \\\\
|
||||
&= \displaystyle\sum_{k=1}^{n} a_{ik} * b_{kj}
|
||||
\end{align}
|
||||
\\]
|
||||
|
||||
#### Exemple
|
||||
|
||||
\\[
|
||||
\begin{pmatrix}
|
||||
2 &1 &-1 \\\\
|
||||
3 &0 &2
|
||||
\end{pmatrix} *
|
||||
\begin{pmatrix}
|
||||
1 \\\\
|
||||
-2 \\\\
|
||||
2
|
||||
\end{pmatrix} =
|
||||
\begin{pmatrix}
|
||||
2 - 2 - 2 \\\\
|
||||
3 + 0 + 4
|
||||
\end{pmatrix} =
|
||||
\begin{pmatrix}
|
||||
-2 \\\\
|
||||
7
|
||||
\end{pmatrix}
|
||||
\\]
|
||||
|
||||
## Résoudre des système d'équation
|
||||
|
||||
### Via l'échelonnement des matrices
|
||||
|
||||
1) \\( [A | B] \\) (A augmenté de B)
|
||||
2) Echeloner notre matrice ( Grace aux transformations elementaires ci-dessous )
|
||||
- \\( L_i \leftrightarrow L_j\\) (Echange de lignes)
|
||||
- \\( L_i \gets \alpha L_i \quad \alpha \in \mathbb{R} \\)
|
||||
- \\( L_i \gets L_i + L_j \\)
|
||||
3) Revenir au système et trouver S
|
||||
|
||||
### Via le calcul de déterminants
|
||||
|
||||
Un déterminant est un réel calculé sur une matrice carrée
|
||||
|
||||
#### La méthode de Sarros
|
||||
|
||||
Cette méthode ne fonctionne que pour les matrices 2x2 et 3x3
|
||||
|
||||
##### 2x2
|
||||
|
||||
- Soit \\( A \in \mathbb{R}^{2 * 2} \\)
|
||||
\\[
|
||||
\det A =
|
||||
\begin{vmatrix}
|
||||
a_{11} &a_{12} \\\\
|
||||
a_{21} &a_{22}
|
||||
\end{vmatrix}
|
||||
= (a_{11} * a_{22}) - (a_{12} * a_{21})
|
||||
\\]
|
||||
|
||||
##### 3x3
|
||||
|
||||
- Soit \\( B \in \mathbb{R}^{3 * 3} \\)
|
||||
\\[
|
||||
\det B =
|
||||
\begin{vmatrix}
|
||||
b_{11} &b_{12} &b_{13} \\\\
|
||||
b_{21} &b_{22} &b_{23} \\\\
|
||||
b_{31} &b_{32} &b_{33} \\\\
|
||||
\end{vmatrix}
|
||||
= (b_{11} * b_{22} * b_{33}) + (b_{12} * b_{23} * b_{31}) + (b_{13} * b_{21} * b_{32}) - (b_{13} * b_{22} * b_{31}) - (b_{12} * b_{21} * b_{33}) - (b_{11} * b_{23} * b_{32})
|
||||
\\]
|
||||
|
||||
### La méthode des cofacteurs
|
||||
|
||||
Utilisé pour les matrices + grandes ou égales à 3x3
|
||||
|
||||
- **Un Mineur** de l'élément \\( a_{ij} \\) est le déterminant de la matrice \\( Aij \\)
|
||||
- C'est à dire la matrice \\( A \\) où on a supprimé la ligne i et la conlonne j
|
||||
- On la note \\( M_{ij} \\)
|
||||
|
||||
- Le **Cofacteur** de la position ij est le nombre \\( (-1)^{i+j} * M_{ij} \\)
|
||||
- On le note \\( C_{ij} \\)
|
||||
|
||||
On choisit ensuite une ligne a déveloper, au plus il y a de zeros au mieux c'est
|
||||
|
||||
- Soit \\( A \in \mathbb{R}^{n * n} \\)
|
||||
- Si on développe la ie Ligne
|
||||
- \\( \forall 1 \leq i \leq n \quad \det A = \displaystyle\sum_{j=n}^n a_{ij} * C_{ij} \\)
|
||||
|
||||
#### Inverse d'une matrice
|
||||
|
||||
Sachant que l'inverse d'un réel \\( x \\) est \\( x^{-1} \\) tel que \\( x * x^{-1} = 1\\)
|
||||
|
||||
On peut étendre cette définition aux matrice pour que \\( A * A^{-1} * A = \mathbb{I} \\)
|
||||
Une matrice nxn est inversible ssi \\( \det A \neq 0 \\)
|
||||
|
||||
On peut trouver cette matrice inverse à l'aide de la matrice ompagnon.
|
||||
1) On vérifie que le détérminanat est différent de 0
|
||||
2) On applique des transformations élémentaires sur A et sur \\( \mathbb{I} \\) en même temps jusqu'a transformer \\( A \text{ en } \mathbb{I}\\)
|
||||
|
||||
> Mais comment utiliser la matrice inverse pour résoudre un system?
|
||||
|
||||
On sait que \\( A \cdot x = b \\) est la représentation d'un système en matrice.
|
||||
\\[
|
||||
\begin{align}
|
||||
A*x &= b \\\\
|
||||
A^{-1} * A * x &= A^{-1} * b \\\\
|
||||
\mathbb{I} * x &= A^{-1} * b \\\\
|
||||
x &= A^{-1} * b
|
||||
\end{align}
|
||||
\\]
|
||||
|
||||
où x est la matrice de variable, on aura donc nos solutions directement en mutlipliant nos matrices
|
||||
|
||||
|
||||
## Diagonalisation
|
||||
|
||||
- Soit \\( M \in \mathbb{R}^{n \times n} \\)
|
||||
- On dit que M est **Diagonale** ssi
|
||||
- \\( \forall i, j \quad i \neq j \implies a_{ij} = 0 \\)
|
||||
|
||||
donc de la forme
|
||||
\\[
|
||||
\begin{pmatrix}
|
||||
x &0 &0\\\\
|
||||
0 &y &0\\\\
|
||||
0 &0 &z\\\\
|
||||
\end{pmatrix}
|
||||
\\]
|
||||
|
||||
Remarque: Diagonaliser une matrice associée à \\( L : V \to V \\) revient à trouver une base de V constituée de [vecteur propres](./vpropres.md) de L
|
34
src/math/all/vpropres.md
Normal file
34
src/math/all/vpropres.md
Normal file
@ -0,0 +1,34 @@
|
||||
# Valeur/Vecteur/Espaces propres
|
||||
|
||||
- Soit \\( M \\) une matrice \\( n \times n \\). Soit \\( L: V \to V \\) une application linéaire
|
||||
- Soit \\( v \in V \\) un vecteur **Non-Nul**.
|
||||
- On dit que \\( v \\) est un **vecteur propre** de \\( L/M \\) ssi
|
||||
- \\( \exists \lambda \in \mathbb{R} \quad L(v) = \lambda v / Mv = \lambda v \\)
|
||||
- Ce \\( \lambda est la **valeur propre** associée à v \\)
|
||||
- l'ensemble des vecteurs propres d'une valeur propres est **un espace propre**
|
||||
|
||||
En passant par les matrice, on a bien que \\( Mv = \lambda v \\) et on peut transformer cette equation en \\( (M - \lambda 𝟙 )* v = 0 \\)
|
||||
|
||||
Pour isoler lambda on peut alors faire \\( det(M - \lambda 𝟙 ) = 0 \\) qui nous permet alors de trouver les vecteurs et espaces propres
|
||||
|
||||
## Diagonalisable
|
||||
|
||||
- Soit \\( L : V \to V \quad dim(V) = n \\)
|
||||
- L est [**Diagonalisable**](./matrix.md#diagonalisation) ssi
|
||||
- Il existe n vecteurs propres de L linéairement indépendants
|
||||
|
||||
- Donc toutes les matrices ne sont pas diagonalisables!
|
||||
- Si pas dans \\( \mathbb{R} \\) pour être dans les complexes
|
||||
- attention aux dimentiosn de l'éspaces propre
|
||||
|
||||
1) Trouver les valeurs propres
|
||||
1) calculer le détérminant du polynome caractéristique
|
||||
- les valeurs pour lequels ce det est = 0 alors lambda sont nos valeurs propres\\( det(M - \lambda 𝟙 ) = 0 \\)
|
||||
- pour chaques lambdas, calculer sa multiplicité
|
||||
2) Vérifier que les lambdas sont bien dans les réels
|
||||
3) Trouver les espaces propres (ensemble de tout les vecteurs propres)
|
||||
- pour chauques lambdan calculer \\( M - \lambda 𝟙 = 0\\)
|
||||
4) Vérifier \\( dim(E_i) = k_i \\) si pas, M n'est pas diagonalisable
|
||||
5) Calculer la matrice diagonale
|
||||
- Retourner la matrice diagonale dont la ligne de diagonale est composée des valeurs propres \\( \lambda_ i \\) , chacune répétée \\( k_i \\) fois
|
||||
- Cette matrice de L a pour base les vecteurs propres de chaques \\( lambda_i \\) dans l'ordre mis dans la matrice
|
6
src/math/disc/graph.md
Normal file
6
src/math/disc/graph.md
Normal file
@ -0,0 +1,6 @@
|
||||
# Initiation à la théorie des graphe
|
||||
|
||||
- Un **Graphe non-orienté**, noté \\(G = (S, A)\\), est la donnée d'un ensemble de sommets (noté S) et d'un ensemble d'arêtes (noté A).
|
||||
- Une arête est une paire des sommets
|
||||
- Un **Graphe orienté**, noté \\(G = (S, F)\\), est la donnée d'un ensemble de sommets (noté S) et d'un ensemble de flèches (noté F).
|
||||
- Une flèche est un couple des sommets.
|
1
src/math/disc/index.md
Normal file
1
src/math/disc/index.md
Normal file
@ -0,0 +1 @@
|
||||
# Math Discrète
|
19
src/math/disc/induction.md
Normal file
19
src/math/disc/induction.md
Normal file
@ -0,0 +1,19 @@
|
||||
# Preuve par induction
|
||||
|
||||
Le but est de prouver les propriètés du type:
|
||||
\\[
|
||||
\forall n \in \mathbb{N} \quad P(n)
|
||||
\\]
|
||||
|
||||
|
||||
## Induction Faible
|
||||
|
||||
1) Cas de base: \\( P(0) \\)
|
||||
2) Cas général: \\( \forall n \in \mathbb{N} \quad P(n) \implies P(n+1) \\)
|
||||
3) Conclusion: \\( \forall n \in \mathbb{N} \quad P(n) \\)
|
||||
|
||||
## Induction Forte
|
||||
|
||||
1) Cas de base: \\( P(0) ... P(n) \\) (à déterminer en fonction du cas général)
|
||||
2) Cas général: \\( \forall n \in \mathbb{N} \quad P(0) \land ... \land P(n) \implies P(n+1) \\)
|
||||
3) Conclusion: \\( \forall n \in \mathbb{N} \quad P(n) \\)
|
89
src/math/disc/prime.md
Normal file
89
src/math/disc/prime.md
Normal file
@ -0,0 +1,89 @@
|
||||
# Les Nombres Premiers
|
||||
|
||||
- Soient \\(a, b \in \mathbb{Z}\\) avec \\(a \neq 0\\)
|
||||
- On dit que \\( a \\) **divise** \\( b \\) noté \\( a | b \\)
|
||||
- ssi \\( \exists c \in \mathbb{Z} b=ac \\)
|
||||
- On dit également que b est un multiple de a
|
||||
|
||||
## Propositions de division
|
||||
|
||||
- \\( \forall a, b, c, d \in \mathbb{Z}_ 0 \\)
|
||||
a) \\( 1|a \\)
|
||||
b) \\( a|0 \\)
|
||||
c) \\( a|a \\)
|
||||
d) \\( a|b \implies (\forall c \in \mathbb{Z}_ 0 \quad a|(b * c))\\)
|
||||
e) \\( (a|b \land b|c) \implies a|c\\)
|
||||
f) \\( (a|b \land a|c) \implies a | (b+c)\\)
|
||||
g) \\( (a|b \land a|c) \implies a | (b-c)\\)
|
||||
h) \\( (a|b \lor a|c) \implies a | (b * c)\\)
|
||||
h) \\( (a|b \land c|d) \implies (a * c) | (b * d)\\)
|
||||
|
||||
|
||||
## Algorithme de division d'euclide
|
||||
|
||||
- Soient \\( a \in \mathbb{Z} \text{ et } d\in \mathbb{N} _ 0 \\)
|
||||
- \\( \exists q, r \in \mathbb{Z} \quad 0 \leq r < d \quad a = dq + r\\)
|
||||
\mathbb{R}
|
||||
|
||||
- Soient \\( a, b \in \mathbb{Z} \quad n \in \mathbb{N} _ 0 \\)
|
||||
- On dit que \\( a \\) est **congru** à \\( b \\) modulo n
|
||||
- ssi \\( n \vert (a - b) \\)
|
||||
- On note \\( a \equiv_n b \\)
|
||||
|
||||
## PGCD & PPCM
|
||||
|
||||
- **PGCD** : Plus grand commun diviseur
|
||||
- **PPCM** : Plus petit commun multiple
|
||||
|
||||
On peut calculer le pgcd de deux nombre avec
|
||||
\\[
|
||||
PGCD(a,b) = PGCD(b, a \bmod b)
|
||||
\\]
|
||||
|
||||
On remarque que
|
||||
\\[
|
||||
a * b = PGCD(a,b) * PPCM(a, b)
|
||||
\\]
|
||||
|
||||
Donc si on fait la décomposition en facteur premier d'un nombre, on peut trouver le pgcd et le ppcm comme suit:
|
||||
|
||||
\\[
|
||||
a = p_1* ...* p_n * q_1* ...* q_n \\\\
|
||||
b = p_1* ...* p_n * \tilde{q}_ 1* ...* \tilde{q}_ n
|
||||
\\]
|
||||
\\[
|
||||
PGCD(a,b) = p_1 * ... * p_n \\\\
|
||||
PPCM(a,b) = p_1 * ... * p_n * q_1 * ... * q_n * \tilde{q}_ 1* ...* \tilde{q}_ n
|
||||
\\]
|
||||
|
||||
|
||||
|
||||
|
||||
## La Cryptographie
|
||||
|
||||
Lorsqu'un cannal de communication n'est pas sur, il faut crypter les messages.
|
||||
Le message passe par une fonction pour crypter et une autre fonction pour décrypter. c'est un chiffrement asymetrique
|
||||
|
||||
On se base sur les mathématiques modulaires pour crypter
|
||||
|
||||
### Les nombres premiers
|
||||
|
||||
- Soit \\( p \in \mathbb{N} \\) On dit que \\( P \\) est un **Nombre Premier**
|
||||
- ssi il posséde exactement 2 diviseurs
|
||||
- Ces diviseurs sont \\( 1 \text{ et } P \\)
|
||||
|
||||
Un example d'algorithme naïf pour détecter un nombre premier est:
|
||||
\\[ \forall n \in \mathbb{N} 2 \leq P \leq \sqrt{101} \implies n | 101 \\]
|
||||
On testerais ici par example \\( P | 101 \quad \forall P=2,3,5,7 \\) qui sont les racines < que 101
|
||||
|
||||
#### Une infinitée de nombre premiers
|
||||
|
||||
Nous pouvons prouver qu'il y a une infinitée de nombres premiers.
|
||||
Pour se faire nous fesons une preuve par l'absurde : Il y a un nombre **fini** de nombres premiers.
|
||||
mais si on prend \\( \displaystyle (\prod_1^n p_n)+1 \\) soit ce nombre est premier, soit il ne l'est pas.
|
||||
Dans le cas où il ne le serait pas, alors on peut le décomposer en nombres premiers. sauf que cette formule indique qu'aucuns nombre premiers précédent celui-ci n'est dans la liste des nombres premiers
|
||||
On aura donc une contradiction
|
||||
|
||||
En Cryptographie, l'infinitee de ces nombre premiers et la difficultée de trouver les facteurs premiers d'un grand nombre en fait un bon candidat pour des clés asymétriques
|
||||
|
||||
On peut utiliser également un [Algorithme d'exponensiation rapide](https://courses.cs.washington.edu/courses/cse311/21sp/resources/reference-modular-exponentiation.pdf)
|
172
src/math/disc/relations.md
Normal file
172
src/math/disc/relations.md
Normal file
@ -0,0 +1,172 @@
|
||||
# Les Relations
|
||||
|
||||
- Soient \\( A, B \\) deux ensembles
|
||||
- Le **Produit cartésien** noté \\( A \times B \\) est l'ensemble
|
||||
- \\( A \times B = \\{ (a,b) | a \in A \land b \in B\\} \\)
|
||||
- Donc \\( A \times B \neq B \times A \\)
|
||||
- Une **Relation Binaire** noté \\( R \\) est un sous-ensemble de
|
||||
- \\( A \times B \quad (R \subseteq A \times B)\\)
|
||||
- Soient \\( a \in A \quad b \in B \\)
|
||||
- On dit que a est en **Relation Binaire** ssi \\( (a,b) \in R \\)
|
||||
- noté \\( aRb \\)
|
||||
- Quand \\( A = B \quad R \subseteq A \times A \\) on parle de relation sur \\( A \\)
|
||||
|
||||
Par exemple:
|
||||
1) \\( A = B = \mathbb{R} \quad R = \mathbb{R}^2 \subseteq \mathbb{R}^2 = \mathbb{R} \times \mathbb{R} \\)
|
||||
2) \\( A = \\{2, 3 ,4\\} \quad B = \\{4, 6, 8\\} \quad R = \\{(a,b) \in A \times B | b = 2a\\} \\)
|
||||
3) \\( A = B = \\{ \text{ membre d'une famille } \\} \quad R = \\{ (a,b) | a \text{ est le père de } B \\} \\)
|
||||
4) \\( A = B = \mathbb{R} \quad R_{\leq} = \\{ (a,b) \in \mathbb{R}^2 | a \leq b \\} \\)
|
||||
|
||||
## Représentation des relations (finies)
|
||||
|
||||
Par exemple, pour:
|
||||
\\[
|
||||
A = B = \\{ 1, 2, 3 \\} \quad R_{<} = \\{ (a,b) | a < b \\}
|
||||
\\]
|
||||
|
||||
1) Représentation Cartésienne
|
||||
2) Représentation Patate
|
||||
3) Représentation Matricielle
|
||||
|
||||
## Types de relations
|
||||
|
||||
- Soit \\( R \subseteq A \times A \\), On dit uqe R est
|
||||
- **Réfléxive** ssi \\( \forall a \in A \quad aRa \\)
|
||||
- Que tout les éléments sont en relation avec eux même
|
||||
- **transitive** ssi \\( \forall a, b, c \in A \quad (aRb \land bRc) \implies aRc \\)
|
||||
- Une forme de relation d'héritage.(eg: Si a est un ancetre de b et b est un ancetre de c alors a est un ancetre de c)
|
||||
- **Symétrique** ssi \\( \forall a,b \in A \quad aRb \implies bRa \\)
|
||||
- Toutes les relations sont toujours à double sens
|
||||
- **Anti-Symétrique** ssi \\( \forall a, b \in A \quad (aRb \land bRa) \implies a=b \\)
|
||||
- symètrique mais sans double flèches, seulement des flèches vers lui même
|
||||
|
||||
**Attention**, anti-symétrique n'est pas la négation de symétrique
|
||||
|
||||
## Relation inverse
|
||||
|
||||
- Soit \\( R \subseteq A \times B \\)
|
||||
- La **Relation Inverse** notée \\( R^{-1} = \\{ (b, a) \in B \times A | aRb) \\} \\)
|
||||
|
||||
La relation inverse retourne toute les fleches d'un graphe; Les relations sont inversées
|
||||
|
||||
On a prouvé que \\( R = R^{-1} \implies R \text{ est symétrique } \\)
|
||||
|
||||
## Composition de relations
|
||||
|
||||
- Soient \\( R_1 \subseteq A \times B \quad R_2 \subseteq B \times C \\)
|
||||
- \\( R_2 \circ R_1 = \\{ (a,b) \in A \times C \mid \exists b \in B \quad (a,b) \in R_1 \land (b,c) \in R_2 \\}\\)
|
||||
|
||||
Dans ce cas nous devons faire attention à l'ensemble de départ et d'arrivée
|
||||
|
||||
- Soit \\( R \subseteq A \times A \\)
|
||||
- \\( R^2 = R \circ R \quad R^n = R \circ ... \circ R \\)
|
||||
- R est Transitive ssi \\( R^2 \subseteq R \iff \forall n \in \mathbb{N}_ 0 R^n \subset R \\)
|
||||
|
||||
Nous pouvons alors utiliser les matrice et faire un produit matriciel.
|
||||
On place 1 dans la matrice lorsque les éléments n et m sont en relation et 0 lorsqu'ils ne sont pas en relation
|
||||
- + équivaut à un ou
|
||||
- * équiavaut à un et
|
||||
Ces matrices peuvent nous aider à comprendre mieux ce qu'il se passe
|
||||
> On a un chemin qui va de 1 à 2 **et** de 2 à 3
|
||||
> Oui: Donc (1,3) est dans \\( R^2 \\)
|
||||
|
||||
## Les relations d'équivalences
|
||||
|
||||
- Soit \\( R \subseteq A \times A \\)
|
||||
- \\( R \\) est une **Relation d'équivalence** ssi
|
||||
- R est **Réfléxive**, **Symétrique** et **Transitive**
|
||||
|
||||
- Soit \\( R \subseteq A \times A \\) une relation d'équivalence
|
||||
- Soit \\( a \in A \\)
|
||||
- La **Classe d'équivalence** de A (Pour R), notée \\( [a]_ R \\)
|
||||
- \\( [a]_ R = \\{ b \in A \mid a R b \\} \\)
|
||||
- **Le quotient de A par R**, noté \\( A/R \\)
|
||||
- \\( A/R = \\{ [a]_ R \mid a \in A \\} \\)
|
||||
|
||||
Par example,
|
||||
- \\( A = \\{ 0, 1, 2, 3, 4, 5\\} \\)
|
||||
- \\( R = \\{ (a,b) \in A^2 \mid a \equiv_3 b \\}\\) est une relation d'équivalence
|
||||
- \\( [0]_ R = \\{ b \in A \mid 0 \equiv_3 b \\} = \\{ 0, 3 \\} = [3] _R \\)
|
||||
|
||||
- Soit \\( R \subseteq A^2 \\) une relation d'équivalence
|
||||
- Soient \\( a, b \in A \\). Les affirmations suivantes sont équivalence
|
||||
1) \\( a R b \\)
|
||||
2) \\( [a]_ R = [b]_ R \\)
|
||||
3) \\( [a]_ R \cap [b]_ R \neq \emptyset \\)
|
||||
|
||||
- Soit \\( A \\) un ensemble.
|
||||
- P **une Partition** de A
|
||||
- \\( \mathcal{P} = \\{ A_ i \mid A_ i \subseteq A \\} \\) tq
|
||||
1) \\(\cup_ {A_i \in \mathcal{P}} A_ i = A \\)
|
||||
2) \\( \forall A_ i, A_ j \in \mathcal{P} \quad A_ i \neq A_ j \implies A_ i \cap A_ j = \emptyset\\)
|
||||
|
||||
On a donc que \\( A/R \\) est une partition de A
|
||||
|
||||
## Les relations d'ordre
|
||||
|
||||
- Soit \\( A \\) un ensemble, \\( R \subseteq A \times A \\)
|
||||
- On dit que \\( R \\) est **une relation d'ordre** sur \\( A \\) ssi \\( R \\) est:
|
||||
1) Réfléxive
|
||||
2) Transitive
|
||||
3) Anti-Symétrique
|
||||
- On dit alors que \\( (A, R) \\) est un ensemble ordonné
|
||||
|
||||
Exemple: \\( (a, =), (\mathbb{N} \leq), (\mathbb{R} \leq ), (\mathbb{R}, \geq ), (\mathbb{N}_ 0, \vert ), (2^X, \subseteq)\\)
|
||||
|
||||
- Soit \\( (A, R) \\) un ensemble ordonné, Soit \\( a, b \in A \\)
|
||||
- On dit que a et b sont **Comparables** (par rapport à R) ssi
|
||||
- \\( a R b \lor b R a \\)
|
||||
- Sinon ils sont **Incomparable**
|
||||
|
||||
- Soit \\( (A, R) \\) un ensemble ordonné.
|
||||
- On dit que l'ensemble est **Totalement ordonné** ssi
|
||||
- Il ne contient pas de paire d'incomparable pour R
|
||||
- \\( \forall a,b \in A \quad aRb \lor bRa\\)
|
||||
|
||||
### Diagramme de Hasse
|
||||
|
||||
Il est évidement toujours possible de faire un graphe associé à la relation mais une forme de graphe particulièrement addaptée aux Relations Ordonnées
|
||||
sont les **Diagramme de Hasse**.
|
||||
|
||||

|
||||
Représentation de \\( 2^{\\{ x,y \\} } \\)
|
||||
|
||||
- Soit \\( (A, \preccurlyeq) \\). Soient \\( a, b \in A \\)
|
||||
- on dit que b est un successeur immédiat de a ssi
|
||||
- \\( a \prec b \land \neg(\exists c \quad a \prec c \prec) \\)
|
||||
|
||||
Exemple:
|
||||
- \\( \mathbb{N} , \leq \\) 2 est succésseur immédiat de 1
|
||||
- \\( 1 < 2 \land \neg(\exists c \quad 1 < c < 2) \\)
|
||||
|
||||
- Soit \\( (A, \preccurlyeq) \\)
|
||||
- On dit que a est **maximum** ssi
|
||||
- \\( \forall b \in A \quad b \preccurlyeq a \\)
|
||||
- On dit que a est **maximal** ssi
|
||||
- \\( \neg(\exists b \in A \quad a \prec b)\\)
|
||||
- un maximum implique qu'il soit maximal mais pas l'inverse.
|
||||
- Il n'éxiste pas toujours un maximum ni un maximal
|
||||
|
||||
- Soit \\( (A, \preccurlyeq) \\) un ensemble ordonné.
|
||||
- Soit \\( X \subseteq A \quad a \in A \\)
|
||||
- On dit que a est **une borne supérieure** de x ssi
|
||||
- \\( \forall x \in X \quad x \preccurlyeq a \\)
|
||||
- Une borne supérieur peut:
|
||||
1) Ne pas exister
|
||||
2) être infini
|
||||
3) comprendre des élements dans et hors de l'ens
|
||||
- On dit que a est **supéremum** de X ssi
|
||||
- a est le minimum des bornes supérieure de X
|
||||
- On dit que cet ensemble est un **Treilli** ssi
|
||||
- toute les paire d'éléments de A, \\( \\{ a, b \\} \subseteq A \\) possédent un infinum et un supremum
|
||||
- C'est un ensemble **Bien-Ordonné** ssi
|
||||
- \\( \forall X \subseteq A \quad X \neq \emptyset \quad X \text{ posède un minimum } \\)
|
||||
- Ca nous permet par exemple de faire des preuves par inductions
|
||||
|
||||
- Soit \\( (A, R) \\) un ensemble ordonné
|
||||
- Soit \\( \preccurlyeq \subseteq A^2 \\) un ordre Total sur A.
|
||||
- On dit que \\( \preccurlyeq \\) est **compatible** avec \\( R \\) ssi
|
||||
- \\( \forall a, b \in A \quad aRb \implies a \preccurlyeq b \\)
|
||||
|
||||
Par exemple: Un tri topologique.
|
||||
A la manière de la construction d'une maison, On peut y aller dans un ordre qui est "compatible".
|
5
src/phys/elec/chap1.md
Normal file
5
src/phys/elec/chap1.md
Normal file
@ -0,0 +1,5 @@
|
||||
# Les Forces Electriques
|
||||
|
||||
\\[ |F| = k\frac{|Qq|}{r^2}\\]
|
||||
\\[ k = \frac{1}{4\pi\varepsilon _0} = 9*10^9\\]
|
||||
\\[ \varepsilon = 8,85 * 10^{-12} C^2/(Nm)^2\\]
|
1
src/phys/elec/index.md
Normal file
1
src/phys/elec/index.md
Normal file
@ -0,0 +1 @@
|
||||
# Electromagnétisme
|
Reference in New Issue
Block a user