Chapitres
- Introduction et objectifs
- Partie I : Transformer la représentation des données
- Partie I.1 : couche dense
- Partie I.2 : fonction d'activation
- Partie I.3 : couche de convolution
- Partie II : Apprentissage du réseau et descente de gradient
- Partie II.1 : La descente de gradient
- Partie II.2 : Descente de gradient et fonction de coût
- Partie II.3 : Rétropropagation du gradient
- Partie II.4 : Analogie montagne avec descente et rétropropagation du gradient
- Partie III : Les données
- Partie III.1 : données et format
- Partie III.2 : pertinence des données par rapport à la tâche
- Partie III.3 : 3 qualités pour de "bonnes" données
- Partie III.4 : problèmes liés à l'apprentissage des données
Cette vidéo porte sur la première partie théorique de la formation "Introduction au Deep Learning".
Cette partie est divisée en 3 chapitres :
- Le 1e chapitre couvre des briques basiques rencontrées dans le Deep Learning : couche dense, couche de convolution et fonction d'activation. Des exemples accompagnent ces concepts pour les illustrer. On les retrouve dans la partie pratique. La section explique comment l'information peut être extraite et transformée par ces différentes couches, ainsi que l'intérêt de la fonction d'activation qui apporte de la non-linéarité au réseau.
- Le 2e chapitre porte sur l'apprentissage du réseau de neurones. Il y est présenté l'agorithme de descente de gradient, issu de l'optimisation mathématique, et comment cet algorithme est appliqué à la fonction de coût (fonction qui chiffre l'erreur en sortie de notre réseau de neurones, par rapport à notre tâche). Au fur et à mesure de la descente de gradient, les paramètres de notre réseau sont modifiés, et notre réseau apprend en conséquence. La rétropropagation du gradient est aussi très rapidement mentionnée, comme une composante complémentaire à la descente de gradient dans l'apprentissage du réseau.
- Le 3e chapitre porte sur les données, point fondamental en Deep Learning. Elle couvre la notion de tenseur, comment différents types de données peuvent être transformés pour être considéré par un réseau de neurones, et quelques dangers propres au choix des données : biais induit, sous-apprentissage, sur-apprentissage.
Mots clés : classification deep learning descente de gradient donnees isdm reseau de neurones
Informations
- Johanne Richer (p00000919232)
-
- Gino Frazzoli (p00000913935)
- 5 avril 2024 12:01
- Cours
- Français