« Réseau de Kolmogorov–Arnold » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 5 : | Ligne 5 : | ||
En mai 2024, les chercheurs du MIT, de Caltech, de Northeastern et l'Institut de la NSF Institute for AI and Fundamental Interactions ont développé le réseau Kolmogorov-Arnold comme alternative au [[perceptron multicouche]]. Contrairement à ce dernier, dont les fonctions d'activation des nœuds sont fixes, les RKA utilisent des fonctions d'activation apprises sur les arêtes, en remplaçant les poids linéaires par des splines paramétrées. L'emploi de splines pour approximer une fonction par apprentissage constitue une application pratique du théorème de représentation de Kolmogorov-Arnold. | En mai 2024, les chercheurs du MIT, de Caltech, de Northeastern et l'Institut de la NSF Institute for AI and Fundamental Interactions ont développé le réseau Kolmogorov-Arnold comme alternative au [[perceptron multicouche]]. Contrairement à ce dernier, dont les fonctions d'activation des nœuds sont fixes, les RKA utilisent des fonctions d'activation apprises sur les arêtes, en remplaçant les poids linéaires par des splines paramétrées. L'emploi de splines pour approximer une fonction par apprentissage constitue une application pratique du théorème de représentation de Kolmogorov-Arnold. | ||
<hr/> | <hr/> | ||
Malgré que les réseaux KA demandent d'avantage de calcul, ils offrent l'avantage d'une meilleure [[interprétabilité]] et d'une plus grande précision. | Malgré que les réseaux KA demandent d'avantage de calcul, ils offrent l'avantage d'une meilleure [[interprétabilité]] et d'une plus grande précision. Advenant qu'on arrive à optimiser les calculs nécessaires, les réseaux RK pourraient remplacer les [[Perceptron mulicouche|perceptrons mulicouches]] qui sont à la base de des architectures de [[réseau de neurones profond|réseaux de neurones profonds]]. | ||
==Français== | ==Français== | ||
Ligne 21 : | Ligne 21 : | ||
==Source== | ==Source== | ||
[https://arxiv.org/pdf/2404.19756 KAN: Kolmogorov–Arnold Networks. Liu et al. (2024)] | [https://arxiv.org/pdf/2404.19756 KAN: Kolmogorov–Arnold Networks. Liu et al. (2024)]. | ||
[https://en.wikipedia.org/wiki/Kolmogorov%E2%80%93Arnold_Network Wikipedia - Kolmogorov–Arnold Network] | [https://en.wikipedia.org/wiki/Kolmogorov%E2%80%93Arnold_Network Wikipedia - Kolmogorov–Arnold Network]. | ||
[https://www.marktechpost.com/2024/05/02/kolmogorov-arnold-networks-kans-a-new-era-of-interpretability-and-accuracy-in-deep-learning/ ''Kolmogorov-Arnold Networks (KANs): A New Era of Interpretability and Accuracy in Deep Learning'', Sana Hassan (2024)]. | [https://www.marktechpost.com/2024/05/02/kolmogorov-arnold-networks-kans-a-new-era-of-interpretability-and-accuracy-in-deep-learning/ ''Kolmogorov-Arnold Networks (KANs): A New Era of Interpretability and Accuracy in Deep Learning'', Sana Hassan (2024)]. |
Version du 7 mai 2024 à 14:31
Définition
Un réseau de Kolmogorov-Arnold est un réseau de neurones entraîné en apprenant une fonction d'activation pour chaque arête d'un réseau de neurones, plutôt qu'une seule fonction d'activation en sortie du neurone comme dans un perceptron multicouche.
Compléments
En mai 2024, les chercheurs du MIT, de Caltech, de Northeastern et l'Institut de la NSF Institute for AI and Fundamental Interactions ont développé le réseau Kolmogorov-Arnold comme alternative au perceptron multicouche. Contrairement à ce dernier, dont les fonctions d'activation des nœuds sont fixes, les RKA utilisent des fonctions d'activation apprises sur les arêtes, en remplaçant les poids linéaires par des splines paramétrées. L'emploi de splines pour approximer une fonction par apprentissage constitue une application pratique du théorème de représentation de Kolmogorov-Arnold.
Malgré que les réseaux KA demandent d'avantage de calcul, ils offrent l'avantage d'une meilleure interprétabilité et d'une plus grande précision. Advenant qu'on arrive à optimiser les calculs nécessaires, les réseaux RK pourraient remplacer les perceptrons mulicouches qui sont à la base de des architectures de réseaux de neurones profonds.
Français
réseau de Kolmogorov–Arnold
réseau KA
RKA (prononcé R-K)
Anglais
Kolmogorov–Arnold Network
KAN
Source
KAN: Kolmogorov–Arnold Networks. Liu et al. (2024).
Contributeurs: Claude Coulombe, Patrick Drouin, wiki