Résultats de la recherche


  • ...tilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre. ''' optimisation Adam '''
    707 octet (85 mots) - 11 février 2024 à 22:33
  • ...es selon une distribution normale autour de la position courante. Le nom d'optimisation aléatoire (''random optimization'') est attribué à Matyas. '''optimisation aléatoire'''
    934 octet (131 mots) - 28 janvier 2024 à 11:58
  • ...xprimer divers problèmes sous la forme de problèmes d'optimisation convexe pour les résoudre plus efficacement. '''optimisation convexe'''
    657 octet (80 mots) - 22 avril 2024 à 11:05
  • ...rithme OQS pour Optimisation Quadratique Successive ou de l'algorithme SQP pour ''Sequential Quadratic Programming'', en anglais. '''optimisation quadratique successive'''
    780 octet (97 mots) - 28 janvier 2024 à 11:46
  • ...établissement des outils théoriques, comme les conditions d'optimalité, ou pour la bonne marche des algorithmes de résolution qui y sont introduits et ana '''optimisation non linéaire'''
    817 octet (116 mots) - 28 janvier 2024 à 12:08
  • ...briquer le plus grand nombre de boîtes de conserve possible (ou d’un tissu pour en faire le plus grand nombre de chemises possible, etc.). Cette optimisation peut se faire sans contrainte ou sous contrainte, le second cas se ramenant
    967 octet (144 mots) - 28 avril 2024 à 22:40
  • ...hématique]], la méthode de l'ellipsoïde est une méthode itérative utilisée pour minimiser des fonctions convexes. ...rithme de complexité polynomiale découvert pour résoudre les problèmes d'[[optimisation linéaire]].
    753 octet (113 mots) - 12 février 2024 à 18:07
  • ...rithme d'optimisation qui accélère la descente de gradient, il est utilisé pour entraîner des modèles à base de réseaux de neurones profonds. ...pour « ''Root Mean Square Propagation'' » pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne.
    653 octet (84 mots) - 28 janvier 2024 à 12:34
  • ...manuellement ou automatiquement en explorant une vaste étendue de valeurs pour les hyperparamètres. '''optimisation des hyperparamètres'''
    719 octet (79 mots) - 28 janvier 2024 à 12:04
  • ...étiquettes positives, en utilisant par exemple [[softmax]], mais seulement pour un [[échantillon aléatoire]] d'étiquettes négatives. ...s calcule les probabilités prédites et les termes de pertes correspondants pour les sorties de classe beagle et chien, en plus d'un sous-ensemble aléatoir
    838 octet (111 mots) - 22 mars 2024 à 17:58
  • ...eaux de neurones artificiels à action directe. Il s'agit d'un algorithme d'optimisation de premier ordre. Cet algorithme a été créé par Martin Riedmiller et He
    686 octet (89 mots) - 28 janvier 2024 à 13:12
  • ...branch and bound)'' est une méthode générique de résolution de problèmes d'optimisation combinatoire. ...e le minimum. La méthode séparation et évaluation est une méthode générale pour cela.
    1 kio (176 mots) - 28 janvier 2024 à 13:56
  • ...n pour des '''[[fonction convexe|fonctions convexes]]'''. Il a été proposé pour la première fois par Marguerite Frank et Philip Wolfe en 1956. Le principe [[Catégorie:Apprentissage automatique]]
    691 octet (95 mots) - 25 avril 2024 à 22:33
  • ...er itérativement un certain nombre d'arêtes à partir d'une solution donnée pour trouver une solution de meilleur coût. [[Catégorie:Apprentissage automatique]]
    630 octet (78 mots) - 29 janvier 2024 à 13:21
  • ...scription textuelle la plus pertinente pour cette image, sans optimisation pour cette tâche particulière. ...rentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada
    1 kio (173 mots) - 30 janvier 2024 à 20:15
  • ...tique, paramètre dont la valeur est utilisée pour contrôler le processus d'apprentissage automatique. C'est-à-dire, un paramètre de l'algorithme ou de l'architect ...on d'hyperparamètre]] qui implique une série d'entraînements d'un modèle d'apprentissage.
    1 kio (154 mots) - 27 janvier 2024 à 23:49
  • ...i simplifie considérablement de nombreux problèmes d'[[optimisation]] de l'apprentissage en profondeur.
    766 octet (106 mots) - 28 janvier 2024 à 11:58
  • ...ion de colonnes est une méthode pour résoudre efficacement les problèmes d'optimisation linéaire de grande taille. Elle repose sur la décomposition de Dantzig-Wo [[Catégorie:Apprentissage automatique]]
    639 octet (95 mots) - 29 janvier 2024 à 13:21
  • ...t algorithme détruit cette « décomposabilité ». Il est typiquement utilisé pour minimiser la somme de deux fonctions. [[Catégorie:Apprentissage automatique]]
    647 octet (84 mots) - 11 février 2024 à 22:16
  • ...ions économiques de l'industrie étaient de ce type, comme la conduite et l'optimisation de procédés chimiques, ou la gestion de stocks [[Catégorie:Apprentissage automatique]]
    1 kio (188 mots) - 28 janvier 2024 à 12:27
  • ...ntroduit par Narendra Karmarkar en 1984 pour résoudre les problèmes d''''[[optimisation linéaire]]'''. C'est le premier algorithme réellement efficace qui résou [[Catégorie:Apprentissage automatique]]
    672 octet (93 mots) - 23 avril 2024 à 00:45
  • ...| tests A/B/n ]]''' classiques, véhiculant un grand nombre d'algorithmes pour résoudre différents problèmes, le tout dans le but d'obtenir les meilleu ...contexte utilisateur, historiques ou récentes, qui peuvent être utilisées pour prendre de meilleures décisions algorithmiques en temps réel.
    1 009 octet (139 mots) - 29 janvier 2024 à 11:26
  • ...ation]]. La courbe de validation est utilisée pour estimer la qualité de l'apprentissage fait par le modèle. Elle permet de valider l'architecture du modèle au fu ...isoler l'effet des différents hyperparamètres. Dans ce cas, on applique l'optimisation d'hyperparamètres.
    2 kio (226 mots) - 29 janvier 2024 à 13:26
  • ...dérivée première (parfois appelés conditions nécessaires de premier ordre) pour qu'une solution de programmation non linéaire soit optimale, à condition [https://www.apprentissageprofond.org/ Source : ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2
    1 kio (146 mots) - 29 janvier 2024 à 10:20
  • Nous montrons à droite le wikicode pour certaines catégories *Apprentissage automatique‎
    2 kio (254 mots) - 29 janvier 2024 à 13:23
  • ...lisation des modèles d'apprentissage automatique) et à AIOps (qui est l'IA pour les opérations informatiques), ModelOps se concentre sur l'opérationnalis
    1 kio (147 mots) - 28 janvier 2024 à 12:14
  • ...es du problème. Ils consistent à sélectionner une variable du problème, et pour chaque affectation possible de cette variable, à tester récursivement si [[Catégorie:Apprentissage automatique]]
    968 octet (135 mots) - 28 janvier 2024 à 13:28
  • ...i concerne le comportement attendu en boucle fermée. La commande Hinfini a pour principal avantage la capacité d'inclure dans un même effort de synthéti [[Catégorie:Apprentissage automatique]]
    705 octet (103 mots) - 27 janvier 2024 à 23:59
  • ...ue, et d'échantillonnage préférentiel. La méthode a été conçue à l'origine pour la simulation d'événements rares, où des densités de probabilité très [[Catégorie:Apprentissage automatique]]
    832 octet (130 mots) - 28 janvier 2024 à 11:33
  • ...de réduire l'espace mémoire liés à l'exécution en inférence d'un modèle d'apprentissage (c.-à-d. un [[réseau de neurones artificiels]]) en représentant les para ...ance. TensorFlow et PyTorch comportent des outils d'optimisation de modèle pour minimiser l'espace mémoire requis.
    1 kio (232 mots) - 28 janvier 2024 à 12:34
  • ...kerson est utilisé pour traiter le problème du flot maximum, un problème d'optimisation classique dans le domaine de la recherche opérationnelle. Il est dû à Le [[Catégorie:Apprentissage automatique]]
    858 octet (120 mots) - 26 avril 2024 à 21:17
  • ...èmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement dans de nombreuses disciplines, notamment la robotique, l'
    1 kio (169 mots) - 28 janvier 2024 à 12:39
  • En [[apprentissage automatique]], l'[[apprentissage par renforcement]] et rétroaction humaine (ARRH) est une technique d'amél ...] à l'aide de l'[[apprentissage par renforcement]] grâce à un algorithme d'optimisation.
    3 kio (477 mots) - 5 mai 2024 à 04:01
  • ...oblèmes, fondés sur la théorie darwinienne. Un algorithme génétique (AG) a pour but de faire évoluer un ensemble de solutions candidates à un problème p ...algorithmes génétiques peuvent être utilisés en apprentissage automatique, pour optimiser les hyperparamètres d'un réseau neuronal.
    2 kio (296 mots) - 11 février 2024 à 22:09