« Généralisation en rétropropagation » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
L'apprentissage par rétropropagation semble fonctionner en obtenant tout d'abord un ensemble approximatif de poids qui correspondent aux modèles d'entraînement d'une manière générale, puis en avançant progressivement vers un ensemble de poids qui correspondent exactement aux modèles d'entraînement.
L’apprentissage par rétropropagation semble fonctionner en obtenant tout d’abord un ensemble approximatif de poids qui correspondent aux modèles d’entraînement d’une manière générale, puis en avançant progressivement vers un ensemble de poids qui correspondent exactement aux modèles d’entraînement.
 
Si l'apprentissage va trop loin dans cette voie, on peut atteindre un ensemble de pondérations qui correspond très bien aux particularités, mais qui n'interpolent pas (c'est-à-dire généralisent) bien.


Si l’apprentissage va trop loin dans cette voie, on peut atteindre un ensemble de pondérations qui correspond très bien aux particularités, mais qui n’interpolent pas (c’est-à-dire généralisent) bien.
== Français ==
== Français ==
'''Généralisation en rétropropagation'''
'''Généralisation en rétropropagation'''

Version du 8 décembre 2020 à 23:37

Définition

L’apprentissage par rétropropagation semble fonctionner en obtenant tout d’abord un ensemble approximatif de poids qui correspondent aux modèles d’entraînement d’une manière générale, puis en avançant progressivement vers un ensemble de poids qui correspondent exactement aux modèles d’entraînement.

Si l’apprentissage va trop loin dans cette voie, on peut atteindre un ensemble de pondérations qui correspond très bien aux particularités, mais qui n’interpolent pas (c’est-à-dire généralisent) bien.

Français

Généralisation en rétropropagation

Anglais

generalization in backprop


Source : INWS machine learning dictionary ]

Contributeurs: Imane Meziani, wiki, Sihem Kouache