« Apprentissage subsymbolique » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 6 : | Ligne 6 : | ||
Terme quasi-synonyme d'[[apprentissage automatique]] ou [[connexionnisme]] en intelligence artificielle. | Terme quasi-synonyme d'[[apprentissage automatique]] ou [[connexionnisme]] en intelligence artificielle. | ||
Un inconvénient de ce type d'approche est leur fonctionnement | Un inconvénient de ce type d'approche est que leur fonctionnement est souvent de type [[boîte noire]]. | ||
Les modèles comme les réseaux de neurones, les [[Apprentissage_ensembliste|modèles ensemblistes]], les [[arbre de décision|arbres de décision]], les [[séparateur à vaste marge|séparateurs à vaste marge]], etc. sont tous des exemples d'apprentissage subsymbolique. | Les modèles comme les [[Réseau de neurones artificiels|réseaux de neurones]], les [[Apprentissage_ensembliste|modèles ensemblistes]], les [[arbre de décision|arbres de décision]], les [[séparateur à vaste marge|séparateurs à vaste marge]], etc. sont tous des exemples d'apprentissage subsymbolique. | ||
== Français == | == Français == |
Version du 5 décembre 2023 à 15:16
Définition
Approche d'apprentissage qui se base sur de l'information distribuée à une échelle plus fine que les symboles que l'on rend effective par des méthodes statistiques.
Complément
Terme quasi-synonyme d'apprentissage automatique ou connexionnisme en intelligence artificielle.
Un inconvénient de ce type d'approche est que leur fonctionnement est souvent de type boîte noire.
Les modèles comme les réseaux de neurones, les modèles ensemblistes, les arbres de décision, les séparateurs à vaste marge, etc. sont tous des exemples d'apprentissage subsymbolique.
Français
apprentissage subsymbolique
Anglais
subsymbolic learning
Contributeurs: Imane Meziani, Maya Pentsch, Patrick Drouin, wiki