Il faut commencer par le "neurone formel" avec sa fonction d'activation qui est l'unité élémentaire en en mettant plusieurs on fabrique un "réseaux de neurones artificiels".
Neurone avec fonction d'activation à seuil |
On parle de "Perceptron" à rétroaction. Alors nous les électroniciens on connait bien la "boucle de rétroaction" en prenant une petite partie du signal de sortie on vient corriger l'entrée, elle sert dans l'industrie sous le nom de servomoteur pour stabiliser la vitesse des machine à vapeur.
Boucle de rétroaction |
Pour moi la rétroaction c'est "l'apprentissage" dans le sens ou l'on vient corriger ce que l'on a déterminé.
Avec un début d'algorithme :
Cette fonction est recommandée lorsque la tangente hyperbolique (tanh) est utilisée comme fonction d'activation.
W'(i) = W(i) + Alpha( Y(t)-Y ) * X(i)
avec :
W'(i) = le poids i corrigé
Y(t) = sortie attendue
Y = sortie observée
Alpha = le taux d'apprentissage
X(i) = l'entrée du poids i pour la sortie attendue Y(t)
W(i) = le poids i actuel
C'est trois systèmes sont constitutifs du réseau neuronale a apprentissage, c'est le début du Deep Learning on le conçoit alors presque entièrement quand on arrive au "Perceptron multicouche" :
Et surtout l'algorithme de rétropropagation présenté sur cette page dont je prends note ici.
Des cas concrets soit disant mais franchement cet article n'est pas terrible :
Forbes - 10 Amazing Examples Of How Deep Learning AI Is Used In Practice?
Pour aller beaucoup plus loin, je vous conseille mais c'est en anglais :
Deep Learning in Neural Networks: An Overview
Promis, un jour je vous ferai un résumé.
Bon année 2019 !
Règle d'apprentissage du perceptron
Le perceptron de Frank Rosenblatt est très proche de la règle de Hebb, la grande différence étant qu'il tient compte de l'erreur observée en sortie.Cette fonction est recommandée lorsque la tangente hyperbolique (tanh) est utilisée comme fonction d'activation.
W'(i) = W(i) + Alpha( Y(t)-Y ) * X(i)
avec :
W'(i) = le poids i corrigé
Y(t) = sortie attendue
Y = sortie observée
Alpha = le taux d'apprentissage
X(i) = l'entrée du poids i pour la sortie attendue Y(t)
W(i) = le poids i actuel
C'est trois systèmes sont constitutifs du réseau neuronale a apprentissage, c'est le début du Deep Learning on le conçoit alors presque entièrement quand on arrive au "Perceptron multicouche" :
Perceptron multicouche |
Et surtout l'algorithme de rétropropagation présenté sur cette page dont je prends note ici.
Algorithme de rétropropagation
- Présentation d'un motif d'entraînement au réseau.
- Comparaison de la sortie du réseau avec la sortie ciblée.
- Calcul de l'erreur en sortie de chacun des neurones du réseau.
- Calcul, pour chacun des neurones, de la valeur de sortie qui aurait été correcte.
- Définition de l'augmentation ou de la diminution nécessaire pour obtenir cette valeur (erreur locale).
- Ajustement du poids de chaque connexion vers l'erreur locale la plus faible.
- Attribution d'un blâme à tous les neurones précédents.
- Recommencer à partir de l'étape 4, sur les neurones précédents en utilisant le blâme comme erreur.
Des cas concrets soit disant mais franchement cet article n'est pas terrible :
Forbes - 10 Amazing Examples Of How Deep Learning AI Is Used In Practice?
Pour aller beaucoup plus loin, je vous conseille mais c'est en anglais :
Deep Learning in Neural Networks: An Overview
Promis, un jour je vous ferai un résumé.
Bon année 2019 !
Aucun commentaire:
Enregistrer un commentaire