« Perceptron » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(31 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Domaine==
==Définition==
[[Category:intelligence artificielle]] intelligence artificielle<br />
Le perceptron est un algorithme d'apprentissage supervisé utilisé pour la classification binaire (c'est-à-dire , conçu pour séparer deux classes).
[[Catégorie:Wikipedia-IA]]
[[Catégorie:Apprentissage automatique]]Apprentissage automatique<br />
[[Catégorie:Réseau de neurones artificiels]]Réseau de neurones artificiels<br />
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:scotty2]]


==Définition==
Si le problème est linéairement séparable, un théorème mathématique assure que la règle d'apprentissage du perceptron permet de trouver une droite séparatrice entre les deux classes.
Le '''perceptron''' est un algorithme d'apprentissage supervisé de classifieurs binaires (c'est-à-dire séparant deux classes). Il a été inventé en 1957 par Frank Rosenblatt1 au laboratoire d'aéronautique de l'université Cornell.  
Le perceptron a été inventé en 1957 par Frank Rosenblatt au laboratoire d'aéronautique de l'université Cornell sous la forme d'un gros appareil électronique. C'est l'ancêtre direct des '''[[Réseau de neurones artificiels|réseaux de neurones]]'''.


C'est un modèle inspiré des théories cognitives de Friedrich Hayek et de Donald Hebb. Il s'agit d'un neurone formel muni d'une règle d'apprentissage qui permet de déterminer automatiquement les poids synaptiques de manière à séparer un problème d'apprentissage supervisé. Si le problème est linéairement séparable, un théorème assure que la règle du perceptron permet de trouver une séparatrice entre les deux classes.
==Compléments==
Le perceptron comporte une couche d'entrée qui ne fait que recevoir les données et une couche de sortie qui calcule et affiche le résultat. En fait, le perceptron ne comporte qu'un seul '''[[Neurone artificiel|neurone artificiel]]''' actif. Ce qui distingue le perceptron d'un simple neurone, c'est l'existence d'un retour d'information sous la forme d'une boucle de rétroaction qui permet de constituer un algorithme capable d'apprendre de ses erreurs.
<hr />
Note : Une limitation bien connue du perceptron simple est son incapacité à apprendre la fonction « ou exclusif » (xor).
<hr />
Le perceptron est un '''[[Neurone artificiel|neurone]]''' muni d'une règle d'apprentissage inspirée des théories cognitives de Friedrich Hayek et de Donald Hebb qui permet de déterminer automatiquement les poids synaptiques de manière à résoudre un problème d'apprentissage supervisé.  


==Français==
==Français==
'''perceptron   n. m.'''
'''perceptron'''
 
'''perceptron simple'''
 
'''perceptron monocouche'''


==Anglais==
==Anglais==
'''perceptron'''
'''perceptron'''


'''simple perceptron'''


==Sources==
[https://fr.wikipedia.org/wiki/Perceptron Source : Wikipedia IA]


Note : les termes perceptron monocouche; perceptron simple et perceptron sont normalisés par l'ISO/CEI [ISO/IEC 2382-34:1999].


</small><br> {{Modèle:101}}<br>


[http://gdt.oqlf.gouv.qc.ca/ficheOqlf.aspx?Id_Fiche=8397042 ''Source: Grand Dictionnaire Terminologique'']
{{Modèle:GDT}}


[https://fr.wikipedia.org/wiki/Perceptron Source : Wikipedia IA]
[[Catégorie:GDT]]
[[Catégorie:ENGLISH]]
[[Catégorie:Apprentissage automatique]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]

Dernière version du 24 mai 2024 à 11:47

Définition

Le perceptron est un algorithme d'apprentissage supervisé utilisé pour la classification binaire (c'est-à-dire , conçu pour séparer deux classes).

Si le problème est linéairement séparable, un théorème mathématique assure que la règle d'apprentissage du perceptron permet de trouver une droite séparatrice entre les deux classes. Le perceptron a été inventé en 1957 par Frank Rosenblatt au laboratoire d'aéronautique de l'université Cornell sous la forme d'un gros appareil électronique. C'est l'ancêtre direct des réseaux de neurones.

Compléments

Le perceptron comporte une couche d'entrée qui ne fait que recevoir les données et une couche de sortie qui calcule et affiche le résultat. En fait, le perceptron ne comporte qu'un seul neurone artificiel actif. Ce qui distingue le perceptron d'un simple neurone, c'est l'existence d'un retour d'information sous la forme d'une boucle de rétroaction qui permet de constituer un algorithme capable d'apprendre de ses erreurs.


Note : Une limitation bien connue du perceptron simple est son incapacité à apprendre la fonction « ou exclusif » (xor).


Le perceptron est un neurone muni d'une règle d'apprentissage inspirée des théories cognitives de Friedrich Hayek et de Donald Hebb qui permet de déterminer automatiquement les poids synaptiques de manière à résoudre un problème d'apprentissage supervisé.

Français

perceptron

perceptron simple

perceptron monocouche

Anglais

perceptron

simple perceptron

Sources

Source : Wikipedia IA

Note : les termes perceptron monocouche; perceptron simple et perceptron sont normalisés par l'ISO/CEI [ISO/IEC 2382-34:1999].



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »