« Réseau de Kolmogorov–Arnold » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(3 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 5 : Ligne 5 :


== Compléments ==
== Compléments ==
En mai 2024, les chercheurs du MIT, de Caltech, de Northeastern et l'Institut de la NSF Institute for AI and Fundamental Interactions ont développé le réseau Kolmogorov-Arnold comme alternative au [[perceptron multicouche]]. Contrairement à ce dernier, dont les fonctions d'activation des nœuds sont fixes, les RKA utilisent des fonctions d'activation apprises (polynômes) sur les arêtes, en remplaçant les poids linéaires par des splines paramétrées. L'emploi de splines pour approximer une fonction par apprentissage constitue une application pratique du théorème de représentation de Kolmogorov-Arnold. Rappelons qu'une spline est une fonction définie par morceaux par des polynômes.
En mai 2024, les chercheurs du MIT, de Caltech, de Northeastern et l'Institut de la NSF Institute for AI and Fundamental Interactions ont développé le réseau Kolmogorov-Arnold comme alternative au [[perceptron multicouche]]. Contrairement à ce dernier, dont les fonctions d'activation en sortie de chaque neurone sont fixes, les réseaux KA utilisent des fonctions d'activation apprises (polynômes) sur les arêtes (entrées du neurone), en remplaçant les poids linéaires par des splines paramétrées. L'emploi de splines pour approximer une fonction par apprentissage constitue une application pratique du théorème de représentation de Kolmogorov-Arnold. Rappelons qu'une spline est une fonction définie par morceaux par des polynômes.
<hr/>
<hr/>
Malgré que les réseaux KA demandent d'avantage de calcul, ils offrent l'avantage d'une meilleure [[interprétabilité]] et d'une plus grande précision. Advenant qu'on arrive à optimiser les calculs nécessaires, les réseaux RK pourraient remplacer les [[Perceptron mulicouche|perceptrons mulicouches]] qui sont à la base de des architectures de [[réseau de neurones profond|réseaux de neurones profonds]].  
Malgré que les réseaux KA demandent d'avantage de calcul, ils offrent l'avantage d'une meilleure [[interprétabilité]] et d'une plus grande précision. Advenant qu'on arrive à optimiser les calculs nécessaires, les réseaux RK pourraient remplacer les [[Perceptron mulicouche|perceptrons mulicouches]] qui sont à la base de des architectures de [[réseau de neurones profond|réseaux de neurones profonds]].  
Ligne 20 : Ligne 20 :


'''KAN'''
'''KAN'''
'''DeepKAN'''
'''Deep-KAN'''


==Sources==
==Sources==
Ligne 31 : Ligne 35 :
[https://www.math.univ-toulouse.fr/~fmalgouy/enseignement/downloadMva_deep_L_18_19/theorie_deep_learning_approximation1.pdf,  ''Fondements théoriques du Deep Learning: Expressivité des réseaux de neurones'', Gerchinovitz et al. (2019)]
[https://www.math.univ-toulouse.fr/~fmalgouy/enseignement/downloadMva_deep_L_18_19/theorie_deep_learning_approximation1.pdf,  ''Fondements théoriques du Deep Learning: Expressivité des réseaux de neurones'', Gerchinovitz et al. (2019)]


[[Catégorie:Publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 16 juillet 2024 à 13:53

Définition

Un réseau de Kolmogorov-Arnold (ou réseau KA) est un réseau de neurones profond entraîné en apprenant une fonction d'activation pour chaque arête (ou poids) d'un réseau de neurones, plutôt qu'une seule fonction d'activation fixe en sortie du neurone comme dans un perceptron multicouche.

Les réseaux KA offriraient l'avantage d'une meilleure interprétabilité et d'une plus grande précision.

Compléments

En mai 2024, les chercheurs du MIT, de Caltech, de Northeastern et l'Institut de la NSF Institute for AI and Fundamental Interactions ont développé le réseau Kolmogorov-Arnold comme alternative au perceptron multicouche. Contrairement à ce dernier, dont les fonctions d'activation en sortie de chaque neurone sont fixes, les réseaux KA utilisent des fonctions d'activation apprises (polynômes) sur les arêtes (entrées du neurone), en remplaçant les poids linéaires par des splines paramétrées. L'emploi de splines pour approximer une fonction par apprentissage constitue une application pratique du théorème de représentation de Kolmogorov-Arnold. Rappelons qu'une spline est une fonction définie par morceaux par des polynômes.


Malgré que les réseaux KA demandent d'avantage de calcul, ils offrent l'avantage d'une meilleure interprétabilité et d'une plus grande précision. Advenant qu'on arrive à optimiser les calculs nécessaires, les réseaux RK pourraient remplacer les perceptrons mulicouches qui sont à la base de des architectures de réseaux de neurones profonds.

Français

réseau de Kolmogorov–Arnold

réseau KA

RKA (prononcé R-K)

Anglais

Kolmogorov–Arnold Network

KAN

DeepKAN

Deep-KAN

Sources

KAN: Kolmogorov–Arnold Networks. Liu et al. (2024)

Wikipedia - Kolmogorov–Arnold Network

Kolmogorov-Arnold Networks (KANs): A New Era of Interpretability and Accuracy in Deep Learning, Sana Hassan (2024)

Fondements théoriques du Deep Learning: Expressivité des réseaux de neurones, Gerchinovitz et al. (2019)