« Apprentissage subsymbolique » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 6 : Ligne 6 :
Terme quasi-synonyme d'[[apprentissage automatique]] ou [[connexionnisme]] en intelligence artificielle.
Terme quasi-synonyme d'[[apprentissage automatique]] ou [[connexionnisme]] en intelligence artificielle.


Un inconvénient de ce type d'approche est leur fonctionnement en [[boîte noire]].  
Un inconvénient de ce type d'approche est que leur fonctionnement est souvent de type [[boîte noire]].  


Les modèles comme les réseaux de neurones, les [[Apprentissage_ensembliste|modèles ensemblistes]], les [[arbre de décision|arbres de décision]], les [[séparateur à vaste marge|séparateurs à vaste marge]], etc. sont tous des exemples d'apprentissage subsymbolique.  
Les modèles comme les [[Réseau de neurones artificiels|réseaux de neurones]], les [[Apprentissage_ensembliste|modèles ensemblistes]], les [[arbre de décision|arbres de décision]], les [[séparateur à vaste marge|séparateurs à vaste marge]], etc. sont tous des exemples d'apprentissage subsymbolique.  


== Français ==
== Français ==

Version du 5 décembre 2023 à 15:16

Définition

Approche d'apprentissage qui se base sur de l'information distribuée à une échelle plus fine que les symboles que l'on rend effective par des méthodes statistiques.


Complément

Terme quasi-synonyme d'apprentissage automatique ou connexionnisme en intelligence artificielle.

Un inconvénient de ce type d'approche est que leur fonctionnement est souvent de type boîte noire.

Les modèles comme les réseaux de neurones, les modèles ensemblistes, les arbres de décision, les séparateurs à vaste marge, etc. sont tous des exemples d'apprentissage subsymbolique.

Français

apprentissage subsymbolique

Anglais

subsymbolic learning



Source : Termium