« Perceptron » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==Définition==
==Définition==


Le perceptron est un algorithme d'apprentissage supervisé utilisé pour la classification binaire (c'est-à-dire , conçu pour séparer deux classes).  
La perception est la capacité d’un système à recevoir des stimuli liés à un objet ou un événement présent dans son environnement. Ces stimuli ou informations sont perçus par un appareillage constitué de capteurs, par exemple des caméras et des microphones.  


Si le problème est linéairement séparable, un théorème mathématique assure que la règle d'apprentissage du perceptron permet de trouver une droite séparatrice entre les deux classes.
L’idée sous-jacente est d’équiper un système d’intelligence artificielle de sens analogues aux cinq sens de l’être humain : la vue, l’ouïe, l’odorat, le goût et le toucher.


Le perceptron a été inventé en 1957 par Frank Rosenblatt au laboratoire d'aéronautique de l'université Cornell sous la forme d'un gros appareil électronique. C'est l'ancêtre direct des '''[[Réseau de neurones artificiels|réseaux de neurones]]'''.
L’analyse des données issues de la perception permet au système de caractériser l’objet ou l’environnement perçu. La perception est utilisée dans la reconnaissance faciale par exemple.


==Compléments==
==Compléments==
Le perceptron comporte une couche d'entrée qui ne fait que recevoir les données et une couche de sortie qui calcule et affiche le résultat. En fait, le perceptron ne comporte qu'un seul '''[[Neurone artificiel|neurone artificiel]]''' actif. Ce qui distingue le perceptron d'un simple neurone, c'est l'existence d'un retour d'information sous la forme d'une boucle de rétroaction qui permet de constituer un algorithme capable d'apprendre de ses erreurs.
Le perceptron comporte une couche d'entrée qui ne fait que recevoir les données et une couche de sortie qui calcule et affiche le résultat. En fait, le perceptron ne comporte qu'un seul '''[[Neurone artificiel|neurone artificiel]]''' actif. Ce qui distingue le perceptron d'un simple neurone, c'est l'existence d'un retour d'information sous la forme d'une boucle de rétroaction qui permet de constituer un algorithme capable d'apprendre de ses erreurs.
<hr/>
<hr />
Note : Une limitation bien connue du perceptron simple est son incapacité à apprendre la fonction « ou exclusif » (xor).
Note : Une limitation bien connue du perceptron simple est son incapacité à apprendre la fonction « ou exclusif » (xor).
<hr/>
<hr />
Le perceptron est un '''[[Neurone artificiel|neurone]]''' muni d'une règle d'apprentissage inspirée des théories cognitives de Friedrich Hayek et de Donald Hebb qui permet de déterminer automatiquement les poids synaptiques de manière à résoudre un problème d'apprentissage supervisé.  
Le perceptron est un '''[[Neurone artificiel|neurone]]''' muni d'une règle d'apprentissage inspirée des théories cognitives de Friedrich Hayek et de Donald Hebb qui permet de déterminer automatiquement les poids synaptiques de manière à résoudre un problème d'apprentissage supervisé.  



Version du 22 août 2022 à 08:12

Définition

La perception est la capacité d’un système à recevoir des stimuli liés à un objet ou un événement présent dans son environnement. Ces stimuli ou informations sont perçus par un appareillage constitué de capteurs, par exemple des caméras et des microphones.

L’idée sous-jacente est d’équiper un système d’intelligence artificielle de sens analogues aux cinq sens de l’être humain : la vue, l’ouïe, l’odorat, le goût et le toucher.

L’analyse des données issues de la perception permet au système de caractériser l’objet ou l’environnement perçu. La perception est utilisée dans la reconnaissance faciale par exemple.

Compléments

Le perceptron comporte une couche d'entrée qui ne fait que recevoir les données et une couche de sortie qui calcule et affiche le résultat. En fait, le perceptron ne comporte qu'un seul neurone artificiel actif. Ce qui distingue le perceptron d'un simple neurone, c'est l'existence d'un retour d'information sous la forme d'une boucle de rétroaction qui permet de constituer un algorithme capable d'apprendre de ses erreurs.


Note : Une limitation bien connue du perceptron simple est son incapacité à apprendre la fonction « ou exclusif » (xor).


Le perceptron est un neurone muni d'une règle d'apprentissage inspirée des théories cognitives de Friedrich Hayek et de Donald Hebb qui permet de déterminer automatiquement les poids synaptiques de manière à résoudre un problème d'apprentissage supervisé.

Français

perceptron

perceptron simple

perceptron monocouche

Anglais

perceptron

simple perceptron

Source : Wikipedia IA

Note: les termes perceptron monocouche; perceptron simple et perceptron sont normalisés par l'ISO/CEI [ISO/IEC 2382-34:1999].