Résultats de la recherche


  • ...tilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre. ''' optimisation Adam '''
    707 octet (85 mots) - 11 février 2024 à 22:33
  • ...es selon une distribution normale autour de la position courante. Le nom d'optimisation aléatoire (''random optimization'') est attribué à Matyas. '''optimisation aléatoire'''
    934 octet (131 mots) - 28 janvier 2024 à 11:58
  • ...xprimer divers problèmes sous la forme de problèmes d'optimisation convexe pour les résoudre plus efficacement. '''optimisation convexe'''
    657 octet (80 mots) - 22 avril 2024 à 11:05
  • ...rithme OQS pour Optimisation Quadratique Successive ou de l'algorithme SQP pour ''Sequential Quadratic Programming'', en anglais. '''optimisation quadratique successive'''
    780 octet (97 mots) - 28 janvier 2024 à 11:46
  • ...établissement des outils théoriques, comme les conditions d'optimalité, ou pour la bonne marche des algorithmes de résolution qui y sont introduits et ana '''optimisation non linéaire'''
    817 octet (116 mots) - 28 janvier 2024 à 12:08
  • ...issu pour en faire le plus grand nombre de chemises possible, etc.). Cette optimisation peut se faire sans contrainte ou sous contrainte, le second cas se ramenant '''algorithme d'optimisation'''
    955 octet (142 mots) - 11 février 2024 à 22:31
  • ...hématique]], la méthode de l'ellipsoïde est une méthode itérative utilisée pour minimiser des fonctions convexes. ...rithme de complexité polynomiale découvert pour résoudre les problèmes d'[[optimisation linéaire]].
    753 octet (113 mots) - 12 février 2024 à 18:07
  • ...rithme d'optimisation qui accélère la descente de gradient, il est utilisé pour entraîner des modèles à base de réseaux de neurones profonds. ...pour « ''Root Mean Square Propagation'' » pourrait être traduit par RCEQM pour racine carrée de l'erreur quadratique moyenne.
    653 octet (84 mots) - 28 janvier 2024 à 12:34
  • ...manuellement ou automatiquement en explorant une vaste étendue de valeurs pour les hyperparamètres. '''optimisation des hyperparamètres'''
    719 octet (79 mots) - 28 janvier 2024 à 12:04
  • ...étiquettes positives, en utilisant par exemple [[softmax]], mais seulement pour un [[échantillon aléatoire]] d'étiquettes négatives. ...s calcule les probabilités prédites et les termes de pertes correspondants pour les sorties de classe beagle et chien, en plus d'un sous-ensemble aléatoir
    838 octet (111 mots) - 22 mars 2024 à 17:58
  • ...eaux de neurones artificiels à action directe. Il s'agit d'un algorithme d'optimisation de premier ordre. Cet algorithme a été créé par Martin Riedmiller et He
    686 octet (89 mots) - 28 janvier 2024 à 13:12
  • ...branch and bound)'' est une méthode générique de résolution de problèmes d'optimisation combinatoire. ...e le minimum. La méthode séparation et évaluation est une méthode générale pour cela.
    1 kio (176 mots) - 28 janvier 2024 à 13:56
  • ...n pour des '''[[fonction convexe|fonctions convexes]]'''. Il a été proposé pour la première fois par Marguerite Frank et Philip Wolfe en 1956. Le principe [[Catégorie:Apprentissage automatique]]
    691 octet (95 mots) - 25 avril 2024 à 22:33
  • ...er itérativement un certain nombre d'arêtes à partir d'une solution donnée pour trouver une solution de meilleur coût. [[Catégorie:Apprentissage automatique]]
    630 octet (78 mots) - 29 janvier 2024 à 13:21
  • ...scription textuelle la plus pertinente pour cette image, sans optimisation pour cette tâche particulière. ...rentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada
    1 kio (173 mots) - 30 janvier 2024 à 20:15
  • ...tique, paramètre dont la valeur est utilisée pour contrôler le processus d'apprentissage automatique. C'est-à-dire, un paramètre de l'algorithme ou de l'architect ...on d'hyperparamètre]] qui implique une série d'entraînements d'un modèle d'apprentissage.
    1 kio (154 mots) - 27 janvier 2024 à 23:49
  • ...i simplifie considérablement de nombreux problèmes d'[[optimisation]] de l'apprentissage en profondeur.
    766 octet (106 mots) - 28 janvier 2024 à 11:58
  • ...ion de colonnes est une méthode pour résoudre efficacement les problèmes d'optimisation linéaire de grande taille. Elle repose sur la décomposition de Dantzig-Wo [[Catégorie:Apprentissage automatique]]
    639 octet (95 mots) - 29 janvier 2024 à 13:21
  • ...t algorithme détruit cette « décomposabilité ». Il est typiquement utilisé pour minimiser la somme de deux fonctions. [[Catégorie:Apprentissage automatique]]
    647 octet (84 mots) - 11 février 2024 à 22:16
  • ...ions économiques de l'industrie étaient de ce type, comme la conduite et l'optimisation de procédés chimiques, ou la gestion de stocks [[Catégorie:Apprentissage automatique]]
    1 kio (188 mots) - 28 janvier 2024 à 12:27
Voir (20 précédentes | ) (20 | 50 | 100 | 250 | 500)