Résultats de la recherche


  • ...ntroduit par Narendra Karmarkar en 1984 pour résoudre les problèmes d''''[[optimisation linéaire]]'''. C'est le premier algorithme réellement efficace qui résou [[Catégorie:Apprentissage automatique]]
    672 octet (93 mots) - 23 avril 2024 à 00:45
  • ...| tests A/B/n ]]''' classiques, véhiculant un grand nombre d'algorithmes pour résoudre différents problèmes, le tout dans le but d'obtenir les meilleu ...contexte utilisateur, historiques ou récentes, qui peuvent être utilisées pour prendre de meilleures décisions algorithmiques en temps réel.
    1 009 octet (139 mots) - 29 janvier 2024 à 11:26
  • ...ation]]. La courbe de validation est utilisée pour estimer la qualité de l'apprentissage fait par le modèle. Elle permet de valider l'architecture du modèle au fu ...isoler l'effet des différents hyperparamètres. Dans ce cas, on applique l'optimisation d'hyperparamètres.
    2 kio (226 mots) - 29 janvier 2024 à 13:26
  • ...dérivée première (parfois appelés conditions nécessaires de premier ordre) pour qu'une solution de programmation non linéaire soit optimale, à condition [https://www.apprentissageprofond.org/ Source : ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2
    1 kio (146 mots) - 29 janvier 2024 à 10:20
  • Nous montrons à droite le wikicode pour certaines catégories *Apprentissage automatique‎
    2 kio (254 mots) - 29 janvier 2024 à 13:23
  • ...lisation des modèles d'apprentissage automatique) et à AIOps (qui est l'IA pour les opérations informatiques), ModelOps se concentre sur l'opérationnalis
    1 kio (147 mots) - 28 janvier 2024 à 12:14
  • ...es du problème. Ils consistent à sélectionner une variable du problème, et pour chaque affectation possible de cette variable, à tester récursivement si [[Catégorie:Apprentissage automatique]]
    968 octet (135 mots) - 28 janvier 2024 à 13:28
  • ...i concerne le comportement attendu en boucle fermée. La commande Hinfini a pour principal avantage la capacité d'inclure dans un même effort de synthéti [[Catégorie:Apprentissage automatique]]
    705 octet (103 mots) - 27 janvier 2024 à 23:59
  • ...ue, et d'échantillonnage préférentiel. La méthode a été conçue à l'origine pour la simulation d'événements rares, où des densités de probabilité très [[Catégorie:Apprentissage automatique]]
    832 octet (130 mots) - 28 janvier 2024 à 11:33
  • ...de réduire l'espace mémoire liés à l'exécution en inférence d'un modèle d'apprentissage (c.-à-d. un [[réseau de neurones artificiels]]) en représentant les para ...ance. TensorFlow et PyTorch comportent des outils d'optimisation de modèle pour minimiser l'espace mémoire requis.
    1 kio (232 mots) - 28 janvier 2024 à 12:34
  • ...kerson est utilisé pour traiter le problème du flot maximum, un problème d'optimisation classique dans le domaine de la recherche opérationnelle. Il est dû à Le [[Catégorie:Apprentissage automatique]]
    858 octet (120 mots) - 26 avril 2024 à 21:17
  • ...èmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement dans de nombreuses disciplines, notamment la robotique, l'
    1 kio (169 mots) - 28 janvier 2024 à 12:39
  • En [[apprentissage automatique]], l'[[apprentissage par renforcement]] et rétroaction humaine (ARRH) est une technique d'amél ...] à l'aide de l'[[apprentissage par renforcement]] grâce à un algorithme d'optimisation.
    3 kio (477 mots) - 5 mai 2024 à 04:01
  • ...oblèmes, fondés sur la théorie darwinienne. Un algorithme génétique (AG) a pour but de faire évoluer un ensemble de solutions candidates à un problème p ...algorithmes génétiques peuvent être utilisés en apprentissage automatique, pour optimiser les hyperparamètres d'un réseau neuronal.
    2 kio (296 mots) - 11 février 2024 à 22:09
Voir ( | 20 suivantes) (20 | 50 | 100 | 250 | 500)