« Perceptron » : différence entre les versions
m (Remplacement de texte — « Catégorie:Réseau de neurones artificiels » par « ») |
Aucun résumé des modifications |
||
Ligne 21 : | Ligne 21 : | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:101]] |
Version du 23 juillet 2022 à 16:50
Définition
Le perceptron est un algorithme d'apprentissage supervisé de classificateurs binaires (c'est-à-dire séparant deux classes). Il a été inventé en 1957 par Frank Rosenblatt1 au laboratoire d'aéronautique de l'université Cornell.
C'est un modèle inspiré des théories cognitives de Friedrich Hayek et de Donald Hebb. Il s'agit d'un neurone formel muni d'une règle d'apprentissage qui permet de déterminer automatiquement les poids synaptiques de manière à séparer un problème d'apprentissage supervisé. Si le problème est linéairement séparable, un théorème assure que la règle du perceptron permet de trouver une séparatrice entre les deux classes.
Français
perceptron
Anglais
perceptron
Note: les termes perceptron monocouche; perceptron simple et perceptron sont normalisés par l'ISO/CEI [ISO/IEC 2382-34:1999].
Contributeurs: Claire Gorjux, Claude Coulombe, Jacques Barolet, wiki, Robert Meloche