16 décembre 2025
Colle ton cours, Revizly le transforme en résumé, fiches, flashcards et QCM.
| Concept | Points Clés | Notes |
|---|---|---|
| Modèle NN | Fonction paramétrique, non linéaire, entraînement via perte | $h_\omega$, activations non linéaires |
| Gradient descent | Mise à jour $\omega \leftarrow \omega - \varrho \nabla_\omega L$ | Sensible au taux, oscillations possibles |
| Backpropagation | Calcul efficace des gradients par chaîne | Nécessaire pour entraînement profond |
| Surapprentissage | Modèle trop flexible, mémorise bruit | Contrôlé par régularisation, early stopping |
| Régularisation L2 | $L_2 = L_{train} + \lambda |\omega|_2^2$ | Décourage poids importants |
| Régularisation L1 | $L_1 = L_{train} + \lambda |\omega|_1$ | Favorise la sparsité |
| Dropout | Désactivation aléatoire, modèle implicite | Améliore généralisation |
| Data augmentation | Transformations des données | Augmente la diversité, réduit overfitting |
| Optimiseurs | SGD, Momentum, Adagrad, RMSProp, Adam | Choix selon contexte et ressources |
| Hyperparamètres | Taux d'apprentissage, régularisation, batch | Tuning crucial pour performance |
Régularisation et Optimisation
├─ Modèle NN
│ ├─ Fonction de perte
│ ├─ Non linéarité
│ └─ Gradient descent
├─ Surapprentissage
│ ├─ Capacité
│ └─ Régularisation
├─ Techniques de régularisation
│ ├─ L2 (Weight decay)
│ ├─ L1 (Sparsité)
│ ├─ Dropout
│ └─ Data augmentation
└─ Optimiseurs avancés
├─ SGD + Momentum
├─ Adagrad
├─ RMSProp
└─ Adam
Fiche de révision
Colle ton cours, Revizly le transforme en résumé, fiches, flashcards et QCM.
| Élément | Caractéristiques clés | Notes / Différences |
|---|---|---|
| Régularisation L2 | $L_{2}(\omega) = L_{train} + \lambda |\omega|_2^2$ | Décourage les poids importants, lisse la surface |
| Régularisation L1 | $L_{1}(\omega) = L_{train} + \lambda |\omega|_1$ | Favorise la sparsité, peut conduire à des poids nuls |
Régularisation et Optimisation
├─ Modèle NN
│ ├─ Fonction de perte
│ ├─ Non linéarité (ReLU, tanh)
│ └─ Gradient descent
├─ Surapprentissage
│ ├─ Capacité excessive
│ └─ Régularisation, early stopping
├─ Techniques de régularisation
│ ├─ L2 (Weight decay)
│ ├─ L1 (Sparsité)
│ ├─ Dropout
│ └─ Data augmentation
└─ Optimiseurs avancés
├─ SGD + Momentum
├─ Adagrad
├─ RMSProp
└─ Adam
Envie de plus de flashcards ?
Génère des dizaines de flashcards à partir de tes cours
Régularisation L2 — rôle ?
Cliquer pour retourner
Décourage les poids importants
Envie de plus de QCM ?
Génère des dizaines de questions à partir de tes cours
Progression par thème
Basée sur vos réponses aux QCM
Thèmes commencés
Thèmes maîtrisés
Questions répondues
Fonctionnalité Premium
Avec Premium, visualisez exactement où vous en êtes dans chaque chapitre. Identifiez vos points forts et vos lacunes pour réviser plus efficacement.