« Apprentissage subsymbolique » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Approche d'apprentissage qui se base sur de l'information distribuée à une échelle plus fine que les symboles que l'on rend effective par des méthodes statistiques. | |||
== Complément == | |||
Terme quasi-synonyme de l'approche connexionniste ou [[connexionnisme]] en intelligence artificielle. | |||
Un inconvénient de ce type d'approche est leur fonctionnement en [[boîte noire]]. | |||
Les modèles comme les réseaux de neurones, les [[Apprentissage_ensembliste|modèles ensemblistes]], les [[arbre de décision|arbres de décision]], les [[séparateur à vaste marge|séparateurs à vaste marge]], etc. sont tous des exemples d'apprentissage subsymbolique. | |||
== Français == | == Français == |
Version du 5 décembre 2023 à 15:12
Définition
Approche d'apprentissage qui se base sur de l'information distribuée à une échelle plus fine que les symboles que l'on rend effective par des méthodes statistiques.
Complément
Terme quasi-synonyme de l'approche connexionniste ou connexionnisme en intelligence artificielle.
Un inconvénient de ce type d'approche est leur fonctionnement en boîte noire.
Les modèles comme les réseaux de neurones, les modèles ensemblistes, les arbres de décision, les séparateurs à vaste marge, etc. sont tous des exemples d'apprentissage subsymbolique.
Français
apprentissage subsymbolique
Anglais
subsymbolic learning
Contributeurs: Imane Meziani, Maya Pentsch, Patrick Drouin, wiki