16 novembre 2025
Colle ton cours, Revizly le transforme en résumé, fiches, flashcards et QCM.
Fiche de révision
Colle ton cours, Revizly le transforme en résumé, fiches, flashcards et QCM.
Réseau de neurones : Modèle computationnel inspiré du cerveau, composé de plusieurs couches de neurones artificiels permettant de modéliser des fonctions complexes.
Propagation avant (forward propagation) : Processus de calcul des sorties du réseau en passant par chaque couche, en utilisant les poids et fonctions d'activation.
Rétropropagation (backpropagation) : Algorithme pour ajuster les poids en calculant les gradients de la fonction de coût en remontant la structure du réseau.
Fonction d'activation : Fonction non linéaire appliquée aux neurones pour permettre la modélisation de relations complexes (ex : ReLU, sigmoïde).
Fonction de coût : Fonction qui quantifie l'erreur entre la sortie du réseau et la réponse souhaitée.
Gradient descent : Méthode d'optimisation pour minimiser la fonction de coût en suivant la direction du gradient.
Overfitting (surapprentissage) : Phénomène où le modèle s'adapte trop précisément aux données d'entraînement, perdant sa capacité à généraliser.
Régularisation : Techniques pour limiter la complexité du modèle et éviter le surapprentissage, comme la régularisation L2.
Epoch : Une passe complète sur tout le jeu de données d'entraînement.
Batch : Sous-ensemble des données utilisé pour effectuer une mise à jour lors de la descente de gradient.
Propagation avant :
$$ z^{(l)} = W^{(l)} a^{(l-1)} + b^{(l)} $$
$$ a^{(l)} = \sigma(z^{(l)}) $$
Fonction de coût (pour régression) :
$$ J(\theta) = \frac{1}{2m} \sum_{i=1}^m (h_\theta(x^{(i)}) - y^{(i)})^2 $$
Mise à jour des poids (gradient descent) :
$$ \theta := \theta - \eta \frac{\partial J(\theta)}{\partial \theta} $$
Règle de la rétropropagation : dérive du coût par rapport aux poids, en utilisant la règle de la chaîne pour remonter couche par couche les gradients.
| Aspect | Propagation avant | Rétropropagation |
|---|---|---|
| Objectif | Calculer la sortie à partir des poids | Calculer les gradients pour mise à jour |
| Nécessité | Oui | Oui |
| Méthode | Passer en avant, calculer chaque couche | Passer en arrière, calculer chaque gradient |
| Signification | Forward pass | Backward pass |
Aucune flashcard disponible pour ce cours.
Aucun QCM disponible pour ce cours.
Progression par thème
Basée sur vos réponses aux QCM
Thèmes commencés
Thèmes maîtrisés
Questions répondues
Fonctionnalité Premium
Avec Premium, visualisez exactement où vous en êtes dans chaque chapitre. Identifiez vos points forts et vos lacunes pour réviser plus efficacement.