« Optimisation aléatoire » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[category:Vocabulaire2]] | [[category:Vocabulaire2]] | ||
[[Catégorie:Wikipedia-IA2]] [[Catégorie:Apprentissage automatique]] [[Catégorie:Algorithme d'optimisation]] | [[Catégorie:Wikipedia-IA2]] | ||
[[Catégorie:Apprentissage automatique]] Apprentissage automatique<br> | |||
[[Catégorie:Algorithme d'optimisation]]Algorithme d'optimisation<br> | |||
[[Catégorie:scotty2]] | [[Catégorie:scotty2]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
== Définition== | == Définition== | ||
L'optimisation aléatoire (OA) est une famille de méthodes d'optimisation numérique qui ne nécessite pas de connaître le gradient du problème pour être utilisée, comme dans le cas de fonctions non continues ou non différentiables. Ces méthodes sont aussi connues sous le nom de recherche directe, méthodes sans dérivation ou méthodes boîte noire. | L'optimisation aléatoire (OA) est une famille de méthodes d'optimisation numérique qui ne nécessite pas de connaître le gradient du problème pour être utilisée, comme dans le cas de fonctions non continues ou non différentiables. Ces méthodes sont aussi connues sous le nom de recherche directe, méthodes sans dérivation ou méthodes boîte noire. | ||
== Français == | == Français == | ||
'''optimisation aléatoire''' n.f. | '''optimisation aléatoire''' n.f. | ||
== Anglais == | == Anglais == | ||
'''random optimisation''' | '''random optimisation''' | ||
[https://fr.wikipedia.org/wiki/Optimisation_al%C3%A9atoire Source:Wikipedia IA ] | [https://fr.wikipedia.org/wiki/Optimisation_al%C3%A9atoire Source:Wikipedia IA ] | ||
Version du 13 juin 2019 à 21:38
Domaine
Apprentissage automatique
Algorithme d'optimisation
Définition
L'optimisation aléatoire (OA) est une famille de méthodes d'optimisation numérique qui ne nécessite pas de connaître le gradient du problème pour être utilisée, comme dans le cas de fonctions non continues ou non différentiables. Ces méthodes sont aussi connues sous le nom de recherche directe, méthodes sans dérivation ou méthodes boîte noire.
Français
optimisation aléatoire n.f.
Anglais
random optimisation
Contributeurs: Jacques Barolet, wiki