Compare commits

...

27 Commits

Author SHA1 Message Date
9fdef4993a start mdcours 2023-11-20 12:15:18 +01:00
966a6305c0 . 2023-06-18 23:26:20 +02:00
5a0fc2f782 diagonalisation 2023-05-08 20:55:28 +02:00
f4633d2ba4 diagonalisation 2023-05-08 17:06:23 +02:00
ba0f6f5f2e fini relations 2023-04-27 23:19:50 +02:00
22d8d27780 Finish Trailli 2023-04-27 21:01:19 +02:00
4f171ccfe9 Max's page maximum & diagramme de hasse 2023-04-26 09:50:09 +02:00
2923f91c2f Revert "Test + to delete"
This reverts commit edd7fe36ea.
2023-04-26 08:56:50 +02:00
edd7fe36ea Test + to delete 2023-04-26 08:54:38 +02:00
b3a881d99c adding a point 2023-04-25 23:19:34 +02:00
de44d6cedf Matrix -> AL 2023-04-25 10:06:00 +02:00
71d8d2a099 Relation d'ordre 2023-04-24 19:36:25 +02:00
e27ebeec23 Thoérem du rang et Translation Matrice & App Linéaire 2023-04-24 10:35:50 +02:00
d47b4aafe6 Preuve pas inductions 2023-04-21 00:04:29 +02:00
d99b3c44f1 Finishing 7/3/23 Allgèbre linéaire
Todo: Reorganise chapters
2023-04-20 23:26:55 +02:00
7470e6e9c5 Cours 7 Mars début 2023-04-20 18:31:11 +02:00
32ba1c9406 relations 2023-03-31 14:50:19 +02:00
95e7f55556 Relations 2023-03-24 13:04:27 +01:00
53cfe9255a Finishing Matrix and Relations 2023-03-06 22:37:43 +01:00
8d95df507a some things + relations type + inverted relation 2023-03-06 20:12:08 +01:00
a51ef4b402 fixup! matrix + mod 2023-02-21 22:52:16 +01:00
4e8ca19028 matrix + mod 2023-02-21 22:51:38 +01:00
52e62f3557 matrix + mod 2023-02-21 22:50:56 +01:00
8da6a8e7ee adding start mod 10 feb 2023-02-16 22:48:30 +01:00
ab4d6c8280 ratrapper quasiment tout les cours 2023-02-16 00:07:01 +01:00
9217723f89 Merge branch 'master' of git.herisson.ovh:tonitch/mdcours 2023-02-09 08:17:02 +01:00
b4919f684d info 2023-02-08 12:27:38 +01:00
24 changed files with 939 additions and 4 deletions

View File

@ -25,7 +25,31 @@
- [Dérivabilité des fonctions](./math/calculus/chap3.md) - [Dérivabilité des fonctions](./math/calculus/chap3.md)
- [Développement de Taylor](./math/calculus/chap4.md) - [Développement de Taylor](./math/calculus/chap4.md)
- [Algèbre Linéaire](./math/all/index.md) - [Algèbre Linéaire](./math/all/index.md)
- [Espaces Euclidiens ?](./math/all/chap1.md) - [Les Espaces Vectoriels](./math/all/chap1.md)
- [Application Linéaire](./math/all/chap2.md)
- [Valeur/Vecteur/Espaces propres](./math/all/vpropres.md)
- [Les Matrices](./math/all/matrix.md)
- [Math Discrète](./math/disc/index.md)
- [Initiation à la théorie des graphe](./math/disc/graph.md)
- [Nombres Premiers](./math/disc/prime.md)
- [Les Relations](./math/disc/relations.md)
- [Preuve par Induction](./math/disc/induction.md)
# Physique générale I # Physique générale I
- [Mecanique](./phys/meca/index.md) - [Mecanique](./phys/meca/index.md)
- [Chapitre 1](./phys/meca/chap1.md) - [Chapitre 1](./phys/meca/chap1.md)
- [Electromagnétisme](./phys/elec/index.md)
- [Les Forces Electriques](./phys/elec/chap1.md)
# Informatique
- [Algo1](./info/algo1/index.md)
- [Algo2](./info/algo2/index.md)
- [fonctionnement des ordinateurs](./info/fdo/index.md)
- [Intro](./info/fdo/chap1.md)
- [Representation des donnees](./info/fdo/chap2.md)
- [Conception logique](./info/fdo/chap3.md)
- [Processeur mono-cycles](./info/fdo/chap4.md)
- [Assemblage et Compilation](./info/fdo/chap5.md)
- [Entrees et sorties](./info/fdo/chap6.md)
- [Hierarchie des memoires](./info/fdo/chap7.md)
# Economie
- [Chapitre 1 - Introduction à l'économie](./eco/chap1.md)
- [Chapitre 2 - Comprendre le fonctionnement des marchés](./eco/chap2.md)

51
src/eco/chap1.md Normal file
View File

@ -0,0 +1,51 @@
# Introduction à l'économie
> Cette partie ne sert pas car n'est pas dans l'examen pour les infos
## Scope
- Quelle quantité produire, a quel prix, comment, facteur de production, d'emploi pour les entreprises
- Consomation, rôles des différents facteurs (prix, pub, ...) peuvent jouer?
- Comprendre comment concilier consommation et production.
### Raretée
La raretée dépend de l'écart entre ce que veulent les gens et ce qui peut être produit
- Désir de consomation illimité mais resources limitées
- 3 facteurs de productions
- Travail (limite quantitative et qualitative)
- Capital (limite quantitative et qualitative)
- Resources
Nous étudions alors comment consommateurs et producteur
## Branches d'études
### La macroéconomie
étude de l'économie comme un tout (PIB, Inflation, Chômage).
Utilisation optimale des resources comme le chômage, ...
Dans une optique de croissance durable de l'ensemble de la production
- DG > OG => risque d'inflation, déficit éxtérieurs
- DG < OG => risque de récéssion, chomage
Le but de la macroéconomie est d'assurer OG = DG via politiques de demande et d'offre
et une armonie dans la croissance d'OG et DG
### La microéconomie
Etudie l'offre et la demande de biens spécifiques
Répond à 3 questions:
- Que produire, en quelle quantités?
- comment produire. Techniques, resources, ...
- pour qui produire, comment distribuer?
les choix impliquent des sacrificess. la production d'un bien entraine le sacrifice d'au moins un autre.
Ces choix doivent être rationnels. La comparaison entre cout mariginal (Cm) et bénéfices marginal (Bm).
- Bm > Cm => intensification de l'activitée
- Bm < Cm => réduction de l'activitée

77
src/eco/chap2.md Normal file
View File

@ -0,0 +1,77 @@
# Comprendre le fonctionnement des marchés
## La demande
Quantitée demandée qu'un consommateur souhaite acheter pour un prix donné
- Toutes choses égales par ailleurs (tecepa)
- à un moment donné
Demande de marchés = \\( \sum \\) demandes individuelles
### Loi de la demande
Si le prix augmente, la quantitée demandée diminue:
- l'éffet revenu: Prix augmente => pouvoir d'achat diminue => Qd augmente/diminue en fct du type de bien
- l'effet substitution: Prix augmente => Qd diminue et Qd d'autres biens augmente
### Courbe de demande
représente graphiquement la demande.
x => Quantitée; y => Prix (même si la quantitée dépend du prix); courbe à pente négative
\\[
Qd = f(P, ...) \\\\
Qd = a - b * P
\\]
où ... = gouts, prix et nombre de biens substituts, ...
où a est l'intercept et -b la pente (= dQd/dP)
Lorsque le prix du bien change, la quantitée demandée change en se déplaçant sur la courbe
Si une autre variable (tecepa/...) change, alors la courbe se déplace.
- vers la droite si la Qd augmente
- vers la gauche si la Qd diminue
## L'offre
Quantitée offerte qu'un producteur souhaite acheter pour un prix donné
- Toutes choses égales par ailleurs (tecepa)
- à un moment donné
Offre de marchés = \\( \sum \\) offres individuelles
### Loi de l'offre
Si le prix augmente, la quantitée offerte augmente:
### Courbe de demande
représente graphiquement l'offre
x => Quantitée; y => Prix (même si la quantitée dépend du prix); courbe à pente positive
\\[
Qo = f(P, ...) \\\\
Qo = c + d * P
\\]
où ... = couts de prod, profitabilité, chocs aléatoires, anticipations, ...
où c est l'intercept et d la pente (= dQo/dP)
Lorsque le prix du bien change, la quantitée offerte change en se déplaçant sur la courbe
Si une autre variable (tecepa/...) change, alors la courbe se déplace.
- vers la droite si la Qo augmente
- vers la gauche si la Qo diminue
## Le prix et quantitée échangée à l'équilibre
- Qd > Qo, (Pénurie) => Prix augmente => Qd diminue et Qo augmente
- Qd < Qo, (Surplus) => Prix diminue => Qd augmente et Qo diminue
- Qd = Qo, (Equilibre) => aucune pression sur P
L'équilibre d'un marché est attein par régulation des prix par les lois d'offre et de demande

1
src/info/algo1/index.md Normal file
View File

@ -0,0 +1 @@
# Algo1

1
src/info/algo2/index.md Normal file
View File

@ -0,0 +1 @@
# Algo2

68
src/info/fdo/chap1.md Normal file
View File

@ -0,0 +1,68 @@
# Intro
## Modele d'un Ordinateur
Nous trouvons des processeurs partout. sur ceux-ci nous pouvons faire tourner un grand nombre d'application
petit ou grand. Ils sont tres polyvalant
Plusieurs categories de processeurs
- Generalistes
- polyvalents
- traitement de texte, tableur, ...
- Serveurs
- Specialises, partages
- Bdd, streaming, hc
- Systemes embarques
- tres specialises
- concus pour une application unique ex: machine a laver, telecommande
Une grande partie des processeurs sont des systems emabarques, Les processeur d'ordinateurs ou de serveurs sont une minoritee
Un oridnateur contient:
- Processeur
- Memoire
- Horloge
- I/O
## Excution des instructions
Dans un processeur, nous avons des registres, ces registres sont une sorte de memoire des processeur transferee depuis la memoire
Le processeur execute une suite de tache en boucle
1) lire l'instruction
2) evaluer l'instruction
3) executer l'instruction
4) passer a l'instruction suivante
Le processeur utilise de la memoire, au plus la memoire est loins, au plus le temps d'execution est faible
## Interface Logiciel / Materiel
Les processeurs ont differentes architectures:
- x86
- arm
- mips (avec laquel nous travaillerons)
- risc-v
Suivant l'architecture, nous avons un "jeu d'instruction" differentes
### Abstraction Materiel
- Comment simplifier la conception de programmes
- Comment en augmenter la portabilite
- Cacher les details materiels du systeme
- deleguer la gestion des ressources du systeme
Nous avons des languages de haut-niveau et des language de bas niveau
- Language de bas de niveau
- language machine, assembleur
- Language de Haut niveau
- Plus comprehensible par l'humain
le haut-niveau est compile en assembleur et ensuite est assembler en binaire (1/0) qui sont des courant electriques physiques
## Densitee des composants
Les composants des ordinateurs sont de plus en plus petits suivant la loie de moore
Une plus grande frequence des processeur implique une qugmentation du courant necessaire et de la surchaufe ( donc duree de vie )
Les processeurs vont maintenant moduler leurs frequences en fonction de la charge de travaille

26
src/info/fdo/chap2.md Normal file
View File

@ -0,0 +1,26 @@
# Representation des donnees
## Notation des Nombres
### Representation decimale
Un nombre naturel x est represente par un mot w compose de N chiffres \\( w _ i \\) pris dans \\(S_{10}\\)
Poids des chiffres: Chaques chiffre d'un mot w est associe a un poids en fonction de sa position
Nombres de possibilitee
pour un mot de N chiffres, nous avons donc 10^N nombre possibles
L'interval de chiffres possibles est de \\([0, 10^N -1]\\)
Pour trouver la taille d'un mot, on a \\(N \geq \lceil log10(x+1)\rceil\\)
## Representation positionnelle generalisee
TODO: Generalisation
representation binaire a partira de generalisation
## Nombres dans un Ordinateur

1
src/info/fdo/chap3.md Normal file
View File

@ -0,0 +1 @@
# Conception logique

1
src/info/fdo/chap4.md Normal file
View File

@ -0,0 +1 @@
# Processeur mono-cycles

1
src/info/fdo/chap5.md Normal file
View File

@ -0,0 +1 @@
# Assemblage et Compilation

1
src/info/fdo/chap6.md Normal file
View File

@ -0,0 +1 @@
# Entrees et sorties

1
src/info/fdo/chap7.md Normal file
View File

@ -0,0 +1 @@
# Hierarchie des memoires

1
src/info/fdo/index.md Normal file
View File

@ -0,0 +1 @@
# fonctionnement des ordinateurs

View File

@ -1,4 +1,4 @@
# Titre à définir # Les Espaces Vectoriels
## Etudions \\( R^2 \\) ## Etudions \\( R^2 \\)
@ -9,6 +9,81 @@
- Soit \\(V \subseteq \mathbb{R} ^n\\) - Soit \\(V \subseteq \mathbb{R} ^n\\)
- On dit que V est un **Sous-Ensemble Vectoriel** de \\(\mathbb{R}^n\\) ssi - On dit que V est un **Sous-Ensemble Vectoriel** de \\(\mathbb{R}^n\\) ssi
1) \\(V \neq \emptyset \\) 1) \\(V \neq \emptyset \\)
2) \\(\forall v_1 \in V \quad \forall v_2 \in V v_1 + v_2 \in V \\) 2) \\(\forall v_1 \in V \quad \forall v_2 \in V \quad v_1 + v_2 \in V \\)
3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \lambda * v \in V \\) 3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \quad \lambda v \in V \\)
On peut voir par example que pour \\(\mathbb{R}^3\\) nous avons comme sous-ensemble vectoriel (SEV):
- \\(\\{(0,0)\\}\\) (L'origine du plan)
- \\(\\{\lambda \in \mathbb{R} \vert \lambda(x, y)\\}\\) (une droite passant par l'origine du plan)
- \\(\\{\lambda , \mu \in \mathbb{R} \vert \lambda(x_1, y_1) + \mu(x_2,y_2)\\}\\) (un plan passant par l'origine du repère)
- \\( \mathbb{R}^3 \\) (l'ensemble lui même)
et nous pouvons ettendre cette definition pour \\(\mathbb{R}^N\\)
## Combinaisons linéaires
- Soit \\(V \subseteq \mathbb{R}^n\\) un SEV
- Soient \\(v_1, ..., v_k \in \mathbb{R} \quad \text{Soit } v \in V\\)
- On dit que \\(v \\) est une **Combinaison Linéaire** de \\(v_1, ..., v_k\\)
- Ssi \\(\exists \lambda_1, ..., \lambda_k \in \mathbb{R} \quad v = \lambda_1 v_1 + ... + \lambda_k v_k\\)
> - Examples
> - Dans \\(\mathbb{R}^2 \quad (2,3)\\) est une **combinaison linéaire** de (1,0) et (0,1).
> - On peut multiplier (1,0) par 2 et (0,1) par 3.
> - Contre-Example
> - Dans \\(\mathbb{R}^3 \quad (1,2,3)\\) n'est pas **combinaison linéaire** de (1,0,0), (0,1,0) et (1,1,0)
> - Le système d'équation n'a pas de solutions (3 = 0 est faux) donc imposible, Aucuns réel ne peux multiplier ces vecteurs pour donner (1,2,3)
- Soient \\( v_1 ... v_k \in \mathbb{R}^n\\)
- L'**espace vectoriel** engendré par \\(v_1 ... v_k\\), noté \\(<v_1 ... v_k>\\) est l'ensemble des combinaisons linéaire de \\(v^1...v^k\\)
- \\(<v_1 ... v_k> = \\{(x_1, ..., x_k) \in \mathbb{R}^n \vert \exists \lambda_1 \in \mathbb{R}...\exists\lambda_k \in \mathbb{R} (x_1, ..., x_k) = \lambda_1 v_1 + ... + \lambda_k v_k\\}\\)
- Soit \\(V \subseteq \mathbb{R}^n \\) un SEV
- Soit \\(v_1 ... v_k \in V\\)
- On dit que \\(\\{v_1 ... v_k\\}\\) est **une partie (ou famille) génératrice** de V
- SSI \\(V = <v_1 ... v_k>\\)
> - Example
> - \\(\\{(1,0,0), (1,0,1)\\}\\) est **une famille génératrice** de \\(<(1,0,0), (1,0,0)>) = \\\{(x_1, x_2, x_3) \in \mathbb{R}^3 \vert x_2 = 0\\}\\)
Le fait d'ajouter plus de vecteurs que nécéssaires est possible mais n'est pas recommendé car celà ajoute de la complexitée et/ou de l'ambiguitée
lors de la combinaisons des vecteurs.
Il pourrait alors y avoir plusieurs combinaisons différentes pour la même solutions
## Dépendance linéaire
Qu'est ce que des vecteur linéairement dépendants ?
- Soient \\(v_1 ... v_k \in \mathbb{R}^n\\)
- On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement dépendant**
- SSI \\(\exists \lambda_1, ..., \lambda_k \in \mathbb{R}\\) **non-tous nuls**
- tel que \\(\lambda_1 v_1 + ... + \lambda_k v_k = \vec{0}\\)
- C'est un ensemble de vecteurs tel que le vecteurs nul en est leurs combinaison linéaire (ou les facteurs sont différents de tous 0)
- On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement indépendant**
- SSI \\( \forall \lambda_1, ..., \lambda_k \in \mathbb{R} \displaystyle\sum_{i=1}^{k} \lambda_i vi = 0 \implies \lambda_1 = ... = \lambda_k = 0 \\)
- La seule combinaison linéaire pour obtenir le vecteur nul est de multiplier tout les vecteurs par 0
Un ensemble de vecteurs linérairement indépendant est appelé une **Partie ou famille libre **
- Soit \\( L: V_1 \to V_2 \\) Une application linéaire tq \\( Ker(L) = {0} \\)
- Si \\( \\{ v_1, ... v_k \\} \\) est une famille libre dans \\( V_1 \\)
- Alors \\( \\{ L(v_1), ..., L(v_2) \\} \\) est une famille libre dans \\( V_2 \\)
## Base
- Soit \\( V \subseteq \mathbb{R}^n \\) un SEV
- Soient \\( v_1, ..., v_k \in V \\)
- On dit que \\( \\{ v_1, ..., v_k \\}\\) est une **base de V** ssi, et
- \\( \\{ v_1, ..., v_k \\}\\) est une **famille libre**
- \\( \\{ v_1, ..., v_k \\}\\) est une **famille génératrice de V**
- B_1 et B_2 des bases de V:
- \\( |B_1| = |B_2| \\)
- Soit \\( V \subset \mathbb{R}^n \\)
- Soit \\( B \text{ une Base de } V \\) constituée de \\( k \\) éléments
- On dit que V est de **Dimention** k. noté \\( dim(V) = k \\)
- Soit \\( V \\) un sous-espace vectoriel de \\( \mathbb{R}^n \\)
- Soit \\( B: \\{ v_1, ..., ...v_k \\} \\) une base de V.
- Soit \\( v \in V \quad v = \lambda_1 * v_1 + ... + \lambda_k * v_k \\)
- \\( (\lambda_1, ..., \lambda_k) \\) sont **les coordonées de v dans la base B**

62
src/math/all/chap2.md Normal file
View File

@ -0,0 +1,62 @@
# Application Linéaire
Nous parlons maintenant de fonctions.
Nous avons vu les fonctions:
- **Injective**: \\( \forall a_1, a_2 \in A \quad a_1 \neq a_2 \implies f(a_1) \neq f(a_2)\\)
- **Surjective**: \\( \forall b \in B \exists a \in A \quad f(a) = b \\) (Tout les points sources ont une destination)
- **Bijective**: Injective & Surjective
[Rappels Fonctions](/math/logique/fonctions.md)
## Application Linéaire
- Soient \\( V_1, V_2 \subseteq \mathbb{R}^n \\)
- On dit que \\( L: V_1 \to V_2\\) est une **Application Linéaire** ssi
1) \\( \forall u, v \in V_1 \quad L(u+v) = L(u) + L(v) \\)
2) \\( \forall \lambda \in \mathbb{R} \quad L(\lambda v) = \lambda L(v) \\)
| Exemples | Contre-Exemples |
| --------- | --------------- |
| L(x) = x | L(x) = \|x\| |
| L(x) = 2x | L(x) = 2x + 1 |
| | L(x) = x² |
| | L(x) = sin(x) |
## Image et Noyaux
- Soit \\( L: V_1 \to V_2 \\) Une application Linéaire
- \\( Ker(L) = \\{ v \in V_1 \mid L(v)=0 \\} \\) Noyau de L
- \\( Im(L) = \\{ v \in V_2 \mid \exists u \in V_1 \quad L(u) = v \\} \\) Image de L
### Théorem du Rang
- Soit \\( L: V_1 \to V_2 \\)
- \\( Dim(Ker(L)) + Dim(Im(L)) = Dim(V_1) \\)
## Matrice → Application Linéaire
- Soit \\( M \in \mathbb{R}^{n \times m} \\)
- L'application linéaire associée à \\( M \\) notée \\( L_M \\)
- \\( L_M : \mathbb{R}^m \to \mathbb{R}^n \quad \text{ définit par } L_M(v)= \underset{n \times m}{M} \cdot \underset{m \times 1}{v} \\)
## Application Linéaire → Matrice
\\[
L: V_1 \to V_2 \leadsto M_L^{B_1 \to B_2}
\\]
1) Choisir une Base \\( B_1 = \\{ e_1, ..., e_n \\} \text{ de } V_1 \text{ et } B_2 = \\{ E_1, ..., E_k \\} \text{ de } V_2\\)
2) Pour chaques \\( e_i \in B_1 \text{, calculer} L(e_i)\\)
3) Pour chaques \\( e_i \in B_1 \text{, exprimer } L(e_i) \text{ comme combi. li. de } E_1 ... E_k \\)
4) Transformation en matrice
5) On peut ensuite faire un "Sanity Check" en fesant l'opération inverse
## Composé d'application linéaires
On parle de \\( L_2 \circ L_1 \\) pour \\( L: V_1 \to V_2 \to V_3 \\)
On veut \\( M_{L_2 \circ L_1}^{B_1 \to B_3} \\)
Pour ca on fait : \\( M_{L_2}^{B_2 \to B_3} * M_{L_2}^{B_1 \to B_2} \\)

217
src/math/all/matrix.md Normal file
View File

@ -0,0 +1,217 @@
# Les Matrices
On considére un system:
\\[
\begin{cases}
x - 2y + 3z = 4 \\\\
2x + y - 4z = 3 \\\\
-3x + 5y -z = 0
\end{cases}
\\]
Un système est caractérisé par ses cohéfficients et par les thermes indépendants.
Les nombres sont placés à des positions bien précises.
On peut représenter ces nombres dans un tableau
\\[
\begin{pmatrix}
1 &-2 &3 &4 \\\\
2 &1 &-4 &3 \\\\
-3 &5 &-1 &0
\end{pmatrix}
\text{ On dit que M est une matrice de taille } 3 * 4
\\]
Une matrice de taille \\( m * n \quad (m,n \in \mathbb{N}_ 0 ) \\) est un tableau
dont les éléments sont rangés selon m lignes et n colonnes
\\[
A = \begin{pmatrix}
a_{11} &a_{12} &\cdots &a_{1n} \\\\
a_{21} &a_{22} &\cdots &\vdots \\\\
\vdots &\vdots &\ddots &\vdots \\\\
a_{m1} &\cdots &\cdots &a_{mn}
\end{pmatrix}
a_{23} \text{ est situé 2e ligne, 3e colonne } \\\\
A = (a_{ij} a_{ij} \text{ est un terme de } A)
\\]
## Operations sur les matrices
### Egalitée
\\( A = B \iff A \text{ et } B \\) ont la même taille et \\( a_{ij} = b_{ij} \quad \forall i,j \\)
### Transposition
\\( A^t \\) est la matrice dont les lignes et les colonnes de \\( A \\) sont inversée
#### Exemple
\\[
A = \begin{pmatrix}
1 &2 \\\\
3 &4
\end{pmatrix}
A^t = \begin{pmatrix}
1 &3 \\\\
2 &4
\end{pmatrix}
\\]
### Produit par un scalaire
- Soit \\( A \in \mathbb{R}^{m * n} \quad k \in \mathbb{R} \\)
- La matrice \\( k * a \\) est une matrice \\( B \\) de taille \\( m * n \\) tel que
- \\( b_{ij} ka_{ij} \quad \forall i,j \\)
#### Exemple
\\[
2\begin{pmatrix}
1 &2 &3\\\\
4 &5 &6
\end{pmatrix}
= \begin{pmatrix}
2 &4 &6\\\\
8 &10 &12
\end{pmatrix}
\\]
### Produit de 2 matrices
\\[
A * B = C \quad
\begin{align}
c_{ij} &= a_{ij} * b_{ij} + ... a_{in} * b_{nj} \\\\
&= \displaystyle\sum_{k=1}^{n} a_{ik} * b_{kj}
\end{align}
\\]
#### Exemple
\\[
\begin{pmatrix}
2 &1 &-1 \\\\
3 &0 &2
\end{pmatrix} *
\begin{pmatrix}
1 \\\\
-2 \\\\
2
\end{pmatrix} =
\begin{pmatrix}
2 - 2 - 2 \\\\
3 + 0 + 4
\end{pmatrix} =
\begin{pmatrix}
-2 \\\\
7
\end{pmatrix}
\\]
## Résoudre des système d'équation
### Via l'échelonnement des matrices
1) \\( [A | B] \\) (A augmenté de B)
2) Echeloner notre matrice ( Grace aux transformations elementaires ci-dessous )
- \\( L_i \leftrightarrow L_j\\) (Echange de lignes)
- \\( L_i \gets \alpha L_i \quad \alpha \in \mathbb{R} \\)
- \\( L_i \gets L_i + L_j \\)
3) Revenir au système et trouver S
### Via le calcul de déterminants
Un déterminant est un réel calculé sur une matrice carrée
#### La méthode de Sarros
Cette méthode ne fonctionne que pour les matrices 2x2 et 3x3
##### 2x2
- Soit \\( A \in \mathbb{R}^{2 * 2} \\)
\\[
\det A =
\begin{vmatrix}
a_{11} &a_{12} \\\\
a_{21} &a_{22}
\end{vmatrix}
= (a_{11} * a_{22}) - (a_{12} * a_{21})
\\]
##### 3x3
- Soit \\( B \in \mathbb{R}^{3 * 3} \\)
\\[
\det B =
\begin{vmatrix}
b_{11} &b_{12} &b_{13} \\\\
b_{21} &b_{22} &b_{23} \\\\
b_{31} &b_{32} &b_{33} \\\\
\end{vmatrix}
= (b_{11} * b_{22} * b_{33}) + (b_{12} * b_{23} * b_{31}) + (b_{13} * b_{21} * b_{32}) - (b_{13} * b_{22} * b_{31}) - (b_{12} * b_{21} * b_{33}) - (b_{11} * b_{23} * b_{32})
\\]
### La méthode des cofacteurs
Utilisé pour les matrices + grandes ou égales à 3x3
- **Un Mineur** de l'élément \\( a_{ij} \\) est le déterminant de la matrice \\( Aij \\)
- C'est à dire la matrice \\( A \\) où on a supprimé la ligne i et la conlonne j
- On la note \\( M_{ij} \\)
- Le **Cofacteur** de la position ij est le nombre \\( (-1)^{i+j} * M_{ij} \\)
- On le note \\( C_{ij} \\)
On choisit ensuite une ligne a déveloper, au plus il y a de zeros au mieux c'est
- Soit \\( A \in \mathbb{R}^{n * n} \\)
- Si on développe la ie Ligne
- \\( \forall 1 \leq i \leq n \quad \det A = \displaystyle\sum_{j=n}^n a_{ij} * C_{ij} \\)
#### Inverse d'une matrice
Sachant que l'inverse d'un réel \\( x \\) est \\( x^{-1} \\) tel que \\( x * x^{-1} = 1\\)
On peut étendre cette définition aux matrice pour que \\( A * A^{-1} * A = \mathbb{I} \\)
Une matrice nxn est inversible ssi \\( \det A \neq 0 \\)
On peut trouver cette matrice inverse à l'aide de la matrice ompagnon.
1) On vérifie que le détérminanat est différent de 0
2) On applique des transformations élémentaires sur A et sur \\( \mathbb{I} \\) en même temps jusqu'a transformer \\( A \text{ en } \mathbb{I}\\)
> Mais comment utiliser la matrice inverse pour résoudre un system?
On sait que \\( A \cdot x = b \\) est la représentation d'un système en matrice.
\\[
\begin{align}
A*x &= b \\\\
A^{-1} * A * x &= A^{-1} * b \\\\
\mathbb{I} * x &= A^{-1} * b \\\\
x &= A^{-1} * b
\end{align}
\\]
où x est la matrice de variable, on aura donc nos solutions directement en mutlipliant nos matrices
## Diagonalisation
- Soit \\( M \in \mathbb{R}^{n \times n} \\)
- On dit que M est **Diagonale** ssi
- \\( \forall i, j \quad i \neq j \implies a_{ij} = 0 \\)
donc de la forme
\\[
\begin{pmatrix}
x &0 &0\\\\
0 &y &0\\\\
0 &0 &z\\\\
\end{pmatrix}
\\]
Remarque: Diagonaliser une matrice associée à \\( L : V \to V \\) revient à trouver une base de V constituée de [vecteur propres](./vpropres.md) de L

34
src/math/all/vpropres.md Normal file
View File

@ -0,0 +1,34 @@
# Valeur/Vecteur/Espaces propres
- Soit \\( M \\) une matrice \\( n \times n \\). Soit \\( L: V \to V \\) une application linéaire
- Soit \\( v \in V \\) un vecteur **Non-Nul**.
- On dit que \\( v \\) est un **vecteur propre** de \\( L/M \\) ssi
- \\( \exists \lambda \in \mathbb{R} \quad L(v) = \lambda v / Mv = \lambda v \\)
- Ce \\( \lambda est la **valeur propre** associée à v \\)
- l'ensemble des vecteurs propres d'une valeur propres est **un espace propre**
En passant par les matrice, on a bien que \\( Mv = \lambda v \\) et on peut transformer cette equation en \\( (M - \lambda 𝟙 )* v = 0 \\)
Pour isoler lambda on peut alors faire \\( det(M - \lambda 𝟙 ) = 0 \\) qui nous permet alors de trouver les vecteurs et espaces propres
## Diagonalisable
- Soit \\( L : V \to V \quad dim(V) = n \\)
- L est [**Diagonalisable**](./matrix.md#diagonalisation) ssi
- Il existe n vecteurs propres de L linéairement indépendants
- Donc toutes les matrices ne sont pas diagonalisables!
- Si pas dans \\( \mathbb{R} \\) pour être dans les complexes
- attention aux dimentiosn de l'éspaces propre
1) Trouver les valeurs propres
1) calculer le détérminant du polynome caractéristique
- les valeurs pour lequels ce det est = 0 alors lambda sont nos valeurs propres\\( det(M - \lambda 𝟙 ) = 0 \\)
- pour chaques lambdas, calculer sa multiplicité
2) Vérifier que les lambdas sont bien dans les réels
3) Trouver les espaces propres (ensemble de tout les vecteurs propres)
- pour chauques lambdan calculer \\( M - \lambda 𝟙 = 0\\)
4) Vérifier \\( dim(E_i) = k_i \\) si pas, M n'est pas diagonalisable
5) Calculer la matrice diagonale
- Retourner la matrice diagonale dont la ligne de diagonale est composée des valeurs propres \\( \lambda_ i \\) , chacune répétée \\( k_i \\) fois
- Cette matrice de L a pour base les vecteurs propres de chaques \\( lambda_i \\) dans l'ordre mis dans la matrice

6
src/math/disc/graph.md Normal file
View File

@ -0,0 +1,6 @@
# Initiation à la théorie des graphe
- Un **Graphe non-orienté**, noté \\(G = (S, A)\\), est la donnée d'un ensemble de sommets (noté S) et d'un ensemble d'arêtes (noté A).
- Une arête est une paire des sommets
- Un **Graphe orienté**, noté \\(G = (S, F)\\), est la donnée d'un ensemble de sommets (noté S) et d'un ensemble de flèches (noté F).
- Une flèche est un couple des sommets.

1
src/math/disc/index.md Normal file
View File

@ -0,0 +1 @@
# Math Discrète

View File

@ -0,0 +1,19 @@
# Preuve par induction
Le but est de prouver les propriètés du type:
\\[
\forall n \in \mathbb{N} \quad P(n)
\\]
## Induction Faible
1) Cas de base: \\( P(0) \\)
2) Cas général: \\( \forall n \in \mathbb{N} \quad P(n) \implies P(n+1) \\)
3) Conclusion: \\( \forall n \in \mathbb{N} \quad P(n) \\)
## Induction Forte
1) Cas de base: \\( P(0) ... P(n) \\) (à déterminer en fonction du cas général)
2) Cas général: \\( \forall n \in \mathbb{N} \quad P(0) \land ... \land P(n) \implies P(n+1) \\)
3) Conclusion: \\( \forall n \in \mathbb{N} \quad P(n) \\)

89
src/math/disc/prime.md Normal file
View File

@ -0,0 +1,89 @@
# Les Nombres Premiers
- Soient \\(a, b \in \mathbb{Z}\\) avec \\(a \neq 0\\)
- On dit que \\( a \\) **divise** \\( b \\) noté \\( a | b \\)
- ssi \\( \exists c \in \mathbb{Z} b=ac \\)
- On dit également que b est un multiple de a
## Propositions de division
- \\( \forall a, b, c, d \in \mathbb{Z}_ 0 \\)
a) \\( 1|a \\)
b) \\( a|0 \\)
c) \\( a|a \\)
d) \\( a|b \implies (\forall c \in \mathbb{Z}_ 0 \quad a|(b * c))\\)
e) \\( (a|b \land b|c) \implies a|c\\)
f) \\( (a|b \land a|c) \implies a | (b+c)\\)
g) \\( (a|b \land a|c) \implies a | (b-c)\\)
h) \\( (a|b \lor a|c) \implies a | (b * c)\\)
h) \\( (a|b \land c|d) \implies (a * c) | (b * d)\\)
## Algorithme de division d'euclide
- Soient \\( a \in \mathbb{Z} \text{ et } d\in \mathbb{N} _ 0 \\)
- \\( \exists q, r \in \mathbb{Z} \quad 0 \leq r < d \quad a = dq + r\\)
\mathbb{R}
- Soient \\( a, b \in \mathbb{Z} \quad n \in \mathbb{N} _ 0 \\)
- On dit que \\( a \\) est **congru** à \\( b \\) modulo n
- ssi \\( n \vert (a - b) \\)
- On note \\( a \equiv_n b \\)
## PGCD & PPCM
- **PGCD** : Plus grand commun diviseur
- **PPCM** : Plus petit commun multiple
On peut calculer le pgcd de deux nombre avec
\\[
PGCD(a,b) = PGCD(b, a \bmod b)
\\]
On remarque que
\\[
a * b = PGCD(a,b) * PPCM(a, b)
\\]
Donc si on fait la décomposition en facteur premier d'un nombre, on peut trouver le pgcd et le ppcm comme suit:
\\[
a = p_1* ...* p_n * q_1* ...* q_n \\\\
b = p_1* ...* p_n * \tilde{q}_ 1* ...* \tilde{q}_ n
\\]
\\[
PGCD(a,b) = p_1 * ... * p_n \\\\
PPCM(a,b) = p_1 * ... * p_n * q_1 * ... * q_n * \tilde{q}_ 1* ...* \tilde{q}_ n
\\]
## La Cryptographie
Lorsqu'un cannal de communication n'est pas sur, il faut crypter les messages.
Le message passe par une fonction pour crypter et une autre fonction pour décrypter. c'est un chiffrement asymetrique
On se base sur les mathématiques modulaires pour crypter
### Les nombres premiers
- Soit \\( p \in \mathbb{N} \\) On dit que \\( P \\) est un **Nombre Premier**
- ssi il posséde exactement 2 diviseurs
- Ces diviseurs sont \\( 1 \text{ et } P \\)
Un example d'algorithme naïf pour détecter un nombre premier est:
\\[ \forall n \in \mathbb{N} 2 \leq P \leq \sqrt{101} \implies n | 101 \\]
On testerais ici par example \\( P | 101 \quad \forall P=2,3,5,7 \\) qui sont les racines < que 101
#### Une infinitée de nombre premiers
Nous pouvons prouver qu'il y a une infinitée de nombres premiers.
Pour se faire nous fesons une preuve par l'absurde : Il y a un nombre **fini** de nombres premiers.
mais si on prend \\( \displaystyle (\prod_1^n p_n)+1 \\) soit ce nombre est premier, soit il ne l'est pas.
Dans le cas il ne le serait pas, alors on peut le décomposer en nombres premiers. sauf que cette formule indique qu'aucuns nombre premiers précédent celui-ci n'est dans la liste des nombres premiers
On aura donc une contradiction
En Cryptographie, l'infinitee de ces nombre premiers et la difficultée de trouver les facteurs premiers d'un grand nombre en fait un bon candidat pour des clés asymétriques
On peut utiliser également un [Algorithme d'exponensiation rapide](https://courses.cs.washington.edu/courses/cse311/21sp/resources/reference-modular-exponentiation.pdf)

172
src/math/disc/relations.md Normal file
View File

@ -0,0 +1,172 @@
# Les Relations
- Soient \\( A, B \\) deux ensembles
- Le **Produit cartésien** noté \\( A \times B \\) est l'ensemble
- \\( A \times B = \\{ (a,b) | a \in A \land b \in B\\} \\)
- Donc \\( A \times B \neq B \times A \\)
- Une **Relation Binaire** noté \\( R \\) est un sous-ensemble de
- \\( A \times B \quad (R \subseteq A \times B)\\)
- Soient \\( a \in A \quad b \in B \\)
- On dit que a est en **Relation Binaire** ssi \\( (a,b) \in R \\)
- noté \\( aRb \\)
- Quand \\( A = B \quad R \subseteq A \times A \\) on parle de relation sur \\( A \\)
Par exemple:
1) \\( A = B = \mathbb{R} \quad R = \mathbb{R}^2 \subseteq \mathbb{R}^2 = \mathbb{R} \times \mathbb{R} \\)
2) \\( A = \\{2, 3 ,4\\} \quad B = \\{4, 6, 8\\} \quad R = \\{(a,b) \in A \times B | b = 2a\\} \\)
3) \\( A = B = \\{ \text{ membre d'une famille } \\} \quad R = \\{ (a,b) | a \text{ est le père de } B \\} \\)
4) \\( A = B = \mathbb{R} \quad R_{\leq} = \\{ (a,b) \in \mathbb{R}^2 | a \leq b \\} \\)
## Représentation des relations (finies)
Par exemple, pour:
\\[
A = B = \\{ 1, 2, 3 \\} \quad R_{<} = \\{ (a,b) | a < b \\}
\\]
1) Représentation Cartésienne
2) Représentation Patate
3) Représentation Matricielle
## Types de relations
- Soit \\( R \subseteq A \times A \\), On dit uqe R est
- **Réfléxive** ssi \\( \forall a \in A \quad aRa \\)
- Que tout les éléments sont en relation avec eux même
- **transitive** ssi \\( \forall a, b, c \in A \quad (aRb \land bRc) \implies aRc \\)
- Une forme de relation d'héritage.(eg: Si a est un ancetre de b et b est un ancetre de c alors a est un ancetre de c)
- **Symétrique** ssi \\( \forall a,b \in A \quad aRb \implies bRa \\)
- Toutes les relations sont toujours à double sens
- **Anti-Symétrique** ssi \\( \forall a, b \in A \quad (aRb \land bRa) \implies a=b \\)
- symètrique mais sans double flèches, seulement des flèches vers lui même
**Attention**, anti-symétrique n'est pas la négation de symétrique
## Relation inverse
- Soit \\( R \subseteq A \times B \\)
- La **Relation Inverse** notée \\( R^{-1} = \\{ (b, a) \in B \times A | aRb) \\} \\)
La relation inverse retourne toute les fleches d'un graphe; Les relations sont inversées
On a prouvé que \\( R = R^{-1} \implies R \text{ est symétrique } \\)
## Composition de relations
- Soient \\( R_1 \subseteq A \times B \quad R_2 \subseteq B \times C \\)
- \\( R_2 \circ R_1 = \\{ (a,b) \in A \times C \mid \exists b \in B \quad (a,b) \in R_1 \land (b,c) \in R_2 \\}\\)
Dans ce cas nous devons faire attention à l'ensemble de départ et d'arrivée
- Soit \\( R \subseteq A \times A \\)
- \\( R^2 = R \circ R \quad R^n = R \circ ... \circ R \\)
- R est Transitive ssi \\( R^2 \subseteq R \iff \forall n \in \mathbb{N}_ 0 R^n \subset R \\)
Nous pouvons alors utiliser les matrice et faire un produit matriciel.
On place 1 dans la matrice lorsque les éléments n et m sont en relation et 0 lorsqu'ils ne sont pas en relation
- + équivaut à un ou
- * équiavaut à un et
Ces matrices peuvent nous aider à comprendre mieux ce qu'il se passe
> On a un chemin qui va de 1 à 2 **et** de 2 à 3
> Oui: Donc (1,3) est dans \\( R^2 \\)
## Les relations d'équivalences
- Soit \\( R \subseteq A \times A \\)
- \\( R \\) est une **Relation d'équivalence** ssi
- R est **Réfléxive**, **Symétrique** et **Transitive**
- Soit \\( R \subseteq A \times A \\) une relation d'équivalence
- Soit \\( a \in A \\)
- La **Classe d'équivalence** de A (Pour R), notée \\( [a]_ R \\)
- \\( [a]_ R = \\{ b \in A \mid a R b \\} \\)
- **Le quotient de A par R**, noté \\( A/R \\)
- \\( A/R = \\{ [a]_ R \mid a \in A \\} \\)
Par example,
- \\( A = \\{ 0, 1, 2, 3, 4, 5\\} \\)
- \\( R = \\{ (a,b) \in A^2 \mid a \equiv_3 b \\}\\) est une relation d'équivalence
- \\( [0]_ R = \\{ b \in A \mid 0 \equiv_3 b \\} = \\{ 0, 3 \\} = [3] _R \\)
- Soit \\( R \subseteq A^2 \\) une relation d'équivalence
- Soient \\( a, b \in A \\). Les affirmations suivantes sont équivalence
1) \\( a R b \\)
2) \\( [a]_ R = [b]_ R \\)
3) \\( [a]_ R \cap [b]_ R \neq \emptyset \\)
- Soit \\( A \\) un ensemble.
- P **une Partition** de A
- \\( \mathcal{P} = \\{ A_ i \mid A_ i \subseteq A \\} \\) tq
1) \\(\cup_ {A_i \in \mathcal{P}} A_ i = A \\)
2) \\( \forall A_ i, A_ j \in \mathcal{P} \quad A_ i \neq A_ j \implies A_ i \cap A_ j = \emptyset\\)
On a donc que \\( A/R \\) est une partition de A
## Les relations d'ordre
- Soit \\( A \\) un ensemble, \\( R \subseteq A \times A \\)
- On dit que \\( R \\) est **une relation d'ordre** sur \\( A \\) ssi \\( R \\) est:
1) Réfléxive
2) Transitive
3) Anti-Symétrique
- On dit alors que \\( (A, R) \\) est un ensemble ordonné
Exemple: \\( (a, =), (\mathbb{N} \leq), (\mathbb{R} \leq ), (\mathbb{R}, \geq ), (\mathbb{N}_ 0, \vert ), (2^X, \subseteq)\\)
- Soit \\( (A, R) \\) un ensemble ordonné, Soit \\( a, b \in A \\)
- On dit que a et b sont **Comparables** (par rapport à R) ssi
- \\( a R b \lor b R a \\)
- Sinon ils sont **Incomparable**
- Soit \\( (A, R) \\) un ensemble ordonné.
- On dit que l'ensemble est **Totalement ordonné** ssi
- Il ne contient pas de paire d'incomparable pour R
- \\( \forall a,b \in A \quad aRb \lor bRa\\)
### Diagramme de Hasse
Il est évidement toujours possible de faire un graphe associé à la relation mais une forme de graphe particulièrement addaptée aux Relations Ordonnées
sont les **Diagramme de Hasse**.
![Diagramme de Hasse](https://upload.wikimedia.org/wikipedia/commons/2/2e/Inclusion_ordering.svg "Diagramme de Hasse")
Représentation de \\( 2^{\\{ x,y \\} } \\)
- Soit \\( (A, \preccurlyeq) \\). Soient \\( a, b \in A \\)
- on dit que b est un successeur immédiat de a ssi
- \\( a \prec b \land \neg(\exists c \quad a \prec c \prec) \\)
Exemple:
- \\( \mathbb{N} , \leq \\) 2 est succésseur immédiat de 1
- \\( 1 < 2 \land \neg(\exists c \quad 1 < c < 2) \\)
- Soit \\( (A, \preccurlyeq) \\)
- On dit que a est **maximum** ssi
- \\( \forall b \in A \quad b \preccurlyeq a \\)
- On dit que a est **maximal** ssi
- \\( \neg(\exists b \in A \quad a \prec b)\\)
- un maximum implique qu'il soit maximal mais pas l'inverse.
- Il n'éxiste pas toujours un maximum ni un maximal
- Soit \\( (A, \preccurlyeq) \\) un ensemble ordonné.
- Soit \\( X \subseteq A \quad a \in A \\)
- On dit que a est **une borne supérieure** de x ssi
- \\( \forall x \in X \quad x \preccurlyeq a \\)
- Une borne supérieur peut:
1) Ne pas exister
2) être infini
3) comprendre des élements dans et hors de l'ens
- On dit que a est **supéremum** de X ssi
- a est le minimum des bornes supérieure de X
- On dit que cet ensemble est un **Treilli** ssi
- toute les paire d'éléments de A, \\( \\{ a, b \\} \subseteq A \\) possédent un infinum et un supremum
- C'est un ensemble **Bien-Ordonné** ssi
- \\( \forall X \subseteq A \quad X \neq \emptyset \quad X \text{ posède un minimum } \\)
- Ca nous permet par exemple de faire des preuves par inductions
- Soit \\( (A, R) \\) un ensemble ordonné
- Soit \\( \preccurlyeq \subseteq A^2 \\) un ordre Total sur A.
- On dit que \\( \preccurlyeq \\) est **compatible** avec \\( R \\) ssi
- \\( \forall a, b \in A \quad aRb \implies a \preccurlyeq b \\)
Par exemple: Un tri topologique.
A la manière de la construction d'une maison, On peut y aller dans un ordre qui est "compatible".

5
src/phys/elec/chap1.md Normal file
View File

@ -0,0 +1,5 @@
# Les Forces Electriques
\\[ |F| = k\frac{|Qq|}{r^2}\\]
\\[ k = \frac{1}{4\pi\varepsilon _0} = 9*10^9\\]
\\[ \varepsilon = 8,85 * 10^{-12} C^2/(Nm)^2\\]

1
src/phys/elec/index.md Normal file
View File

@ -0,0 +1 @@
# Electromagnétisme