Nouvelles pages


Nouvelles pages
Masquer utilisateur(s) inscrit(s) | Masquer robot(s) | Afficher redirections(s)
(les plus récentes | les plus anciennes) Voir (50 plus récentes | ) (20 | 50 | 100 | 250 | 500)
  • 17 décembre 2024 à 15:13Éclaboussure de gaussiennes (hist | modifier) ‎[1 969 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == en construction == ==Définition== ==Compléments== ==Français== '''éclaboussures de gaussiennes''' '''éclatement gaussien''' ==Anglais== '''dynamic gaussian splatting''' ==Sources== [https://pixcap.com/fr/blog/l-eclatement-gaussien, Pixcap (2024), ''Guide de l'éclatement gaussien en 3D et de la création d'un éclatement gaussien''] [https://theses.fr/2024COAZ4036 Sridhar (2024), ''Rendu neuronal pour la représentation humaine en 3D avec de... ») créé initialement avec le titre « Dynamic Gaussian Splatting »
  • 13 décembre 2024 à 15:03Réseau neuronal de graphes spatio-temporels (hist | modifier) ‎[1 128 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX Voir aussi '''réseau neuronal de graphes''' == Français == ''' XXXXXX''' == Anglais == '''Spatio-Temporal Graph Neural Network''' ''' STGNN''' == Source == [https://arxiv.org/abs/2301.10569 Source : arxiv] [https://arxiv.org/abs/2303.14483 Source : arxiv] Catégorie:vocabulary ») créé initialement avec le titre « Spatio-Temporal Graph Neural Network »
  • 13 décembre 2024 à 14:54Graphe spatio-temporel (hist | modifier) ‎[976 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX == Français == ''' XXXXXX''' == Anglais == ''' Spatio-Temporal Graph''' ''' STG''' == Source == [https://www.sciencedirect.com/topics/computer-science/spatiotemporal-graph Source : ScienceDirect] Catégorie:vocabulary ») créé initialement avec le titre « Spatio-Temporal Graph »
  • 13 décembre 2024 à 14:41Carte de saillance (hist | modifier) ‎[1 946 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX Voir aussi '''vision artificielle''' == Français == ''' Carte de saillance''' == Anglais == ''' Saliency Map''' == Source == [https://www.geeksforgeeks.org/what-is-saliency-map/ Source : Geeks for Geeks] [https://christophm.github.io/interpretable-ml-book/pixel-attribution.html Source : github.io] [https://en.wikipedia.org/wiki/Saliency_map Source : Wikipedia] Catégorie:vocabulary ») créé initialement avec le titre « Saliency Map »
  • 10 décembre 2024 à 15:35Matrice creuse (hist | modifier) ‎[1 588 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Matrice dans laquelle de nombreux éléments sont identiques, habituellement des zéros. == Complément == En mathématiques, le terme consacré est ''matrice creuse'' alors qu'en informatique et en science des données, on utilise plutôt ''matrice éparse'' ou ''matrice clairsemée''. == Français == '''matrice creuse''' '''matrice éparse''' '''matrice clairsemée''' == Anglais == '''matrix éparse''' ==Sources== [https://ssc.ca/fr/c... ») créé initialement avec le titre « Sparse matrix »
  • 6 décembre 2024 à 14:35Modèle de raisonnement abstrait (hist | modifier) ‎[788 octets]Arianne (discussion | contributions) (Page créée avec « == Définition == Un modèle de raisonnement abstrait est un modèle qui fonctionne sur la base du '''raisonnement abstrait'''. Dans un domaine dominé par l'entraînement intensif des modèles avec un grand nombre d'exemples, les modèles de raisonnement abstrait visent à combler l'écart entre l'intelligence fluide humaine et les performances des réseaux neuronaux profonds, qui requièrent un entraînement préalable approfondi. Voir aussi '''préentra... »)
  • 5 décembre 2024 à 14:34Classement par paires (hist | modifier) ‎[840 octets]Arianne (discussion | contributions) (Page créée avec « == Définition == Le classement par paires a pour objectif d’établir un ordre de préférence parmi un ensemble d’éléments. Les éléments sont comparés deux à deux (par paires) pour déterminer leur position dans le classement. Voir aussi '''comparaison par paires''' et '''grand modèle de langues''' == Compléments == Le classement par paires, contrairement à l’'''évaluation directe''', se concentre sur une seule dimension de préfér... »)
  • 5 décembre 2024 à 14:28Comparaison par paires (hist | modifier) ‎[1 172 octets]Arianne (discussion | contributions) (Page créée avec « == Définition == La comparaison par paires a pour objectif de choisir le meilleur choix possible parmi un ensemble d’éléments qui sont comparés deux à deux (par paires). Il s’agit d’une étape du '''classement par paires'''. Une des limites de la comparaison par paires est l’'''extensibilité''', puisque dans les évaluations à grandes échelles, lorsque le nombre d'éléments à évaluer augmente, le nombre de comparaisons requises augmente... »)
  • 5 décembre 2024 à 13:37Réseau de Hopfield récurrent (hist | modifier) ‎[1 131 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''discrete Hopfield network''', '''réseau de Hopfield''' et '''réseau de neurones artificiels''' == Français == ''' réseau de Hopfield continu''' == Anglais == ''' continous Hopfield network''' == Source == [https://www.geeksforgeeks.org/hopfield-neural-network/ Source : Geeks for Geeks] [https://www.sciencedirect.com/topics/computer-science/hopfield-neural-networks Source : Scie... ») créé initialement avec le titre « Continuous Hopfield Network »
  • 30 novembre 2024 à 16:22Réseau de Hopfield discret (hist | modifier) ‎[1 241 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXXX Voir aussi '''réseau de Hopfield''' == Français == ''' XXXXX''' == Anglais == ''' Discrete Hopfield Network''' ''' Binary Hopfield Network''' == Source == [https://www.geeksforgeeks.org/hopfield-neural-network/ Source : Geeks for Geeks] [https://www.sciencedirect.com/topics/computer-science/hopfield-neural-networks Source : ScienceDirect] [https://www.sciencedirect.com/science/article/abs/pii/B978... ») créé initialement avec le titre « Discrete Hopfield Network »
  • 30 novembre 2024 à 16:15Soupassement de capacité (hist | modifier) ‎[1 608 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Soupassement arithmétique''' ''' Souppassement de capacité''' ''' Soupassement en virgule flottante''' ''' Soupassement''' == Anglais == ''' Arithmetic Underflow''' ''' Floating Point Underflow''' ''' Underflow''' == Source == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8369286/soupassement-de-capacite Source : La Vitrine linguistique, OQLF] [https://www.semanticsc... ») créé initialement avec le titre « Arithmetic Underflow »
  • 29 novembre 2024 à 14:33Algorithme Re-Pair (hist | modifier) ‎[1 058 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == Re-Paire est le diminutif de ''recursive pairing'', en français pairage récursif. Il s'agit d'un algorithme de compression de graphes sans perte de données qui utilise une grammaire. == Français == ''' Algorithme Re-Pair''' ''' Pairage récursif''' == Anglais == ''' Re-Pair algorithm''' ''' Recursive Pairing''' == Source == [https://theses.hal.science/tel-04708210v1/file/127778_PITOIS_2024_archivage.pdf Source... »)
  • 29 novembre 2024 à 14:25Erreur de reconstruction (TAL) (hist | modifier) ‎[543 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == L'erreur de reconstruction désigne la différence entre les données d'entrée et les données reconstruites (sorties) générées par le modèle (génératif). Une erreur de reconstruction élevée indique que le modèle ne parvient pas à bien reproduire les données d'entrée, ce qui peut suggérer la présence d'anomalies ou de motifs inconnus. == Français == ''' Erreur de reconstruction''' == Anglais == ''' Reco... »)
  • 27 novembre 2024 à 13:24Compression avec perte (hist | modifier) ‎[1 263 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX Voir aussi '''Data Compression''' == Français == ''' Compression avec pertes''' == Anglais == ''' Lossy Compression''' ''Type de compression qui élimine les informations redondantes ou qui ne sont pas absolument nécessaires pour l'appréciation visuelle ou auditive d'images ou de sons numérisés afin d'obtenir le meilleur taux de compression possible.'' == Source == [https://vitrinelinguistique.oqlf.gou... ») créé initialement avec le titre « Compression avec pertes »
  • 27 novembre 2024 à 13:20Compression sans perte (hist | modifier) ‎[1 318 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == ''' Compression sans perte''' == Anglais == ''' Lossless Compression''' ''Type de compression qui permet à des fichiers contenant des images, du son ou d'autres données de conserver après le cycle de compression/décompression tous les détails de leur format d'origine.'' == Source == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8392042/compression-sans-perte Source : La Vitr... »)
  • 26 novembre 2024 à 20:57RoBERTa (hist | modifier) ‎[1 208 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''BERT''' et '''FlauBERT''' == Français == ''' RoBERTa''' == Anglais == ''' RoBERTa''' ''RoBERTa has been shown to outperform BERT and other state-of-the-art models on a variety of natural language processing tasks, including language translation, text classification, and question answering.'' == Source == [https://www.geeksforgeeks.org/overview-of-roberta-model/ Source : Geeks for Geeks... »)
  • 26 novembre 2024 à 20:51Gradient-Weighted Class Activation Mapping (hist | modifier) ‎[1 358 octets]Arianne (discussion | contributions) (Page créée avec « == en contruction == == Définition == XXXXX == Français == ''' XXXXXXX''' == Anglais == ''' Gradient-Weighted Class Activation Mapping''' ''' Grad-CAM''' ''Grad-CAM uses the gradient information flowing into the last convolutional layer of the model to obtain localization map and understand the importance of each pixel of the input image for a specific class.'' == Source == [https://www.geeksforgeeks.org/graceful-degradation-in-distributed-systems/ Sour... »)
  • 26 novembre 2024 à 20:46Dégradation progressive (hist | modifier) ‎[1 264 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX Voir aussi '''étude d'ablation''' == Français == ''' Dégradation gracieuse''' == Anglais == ''' Graceful Degradation''' ''Graceful degradation refers to a system's ability to maintain a partial level of functionality when some components fail or are otherwise impaired.'' == Source == [https://www.geeksforgeeks.org/graceful-degradation-in-distributed-systems/ Source : Geeks for Geeks] [https://www.scie... ») créé initialement avec le titre « Graceful Degradation »
  • 26 novembre 2024 à 20:38Optimum global (hist | modifier) ‎[1 354 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''minimum local''' == Français == ''' Optimum global''' == Anglais == ''' Global Optimum''' ''A global optimum is the maximum or minimum value the objective function can take in all the input space.'' == Source == [https://www.igi-global.com/dictionary/nonlinear-programming/39998 Source : IGI Global] [https://www.baeldung.com/cs/optimization-local-global-optima Source : Baeldung] Catég... ») créé initialement avec le titre « Global Optimum »
  • 26 novembre 2024 à 20:34FlauBERT (hist | modifier) ‎[1 076 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''BERT''' et '''RoBERTa''' == Français == ''' FlauBERT''' == Anglais == ''' FlauBERT''' ''It’s a transformer model pretrained using a masked language modeling (MLM) objective (like BERT).'' == Source == [https://arxiv.org/abs/1912.05372 source : arxiv] [https://hal.science/hal-02784776v3/document Source : HAL Science] [https://huggingface.co/docs/transformers/model_doc/flaubert So... »)
  • 26 novembre 2024 à 20:24Energy Function (hist | modifier) ‎[539 octets]Arianne (discussion | contributions) (Page créée avec « == en consturction == == Définition == XXXXX == Français == ''' XXXXXXX''' == Anglais == ''' Energy Function''' ''An energy function, in the context of computer science, is a non-negative smooth function that is used to control the motion of objects in a system. '' == Source == [https://www.frontiersin.org/journals/computational-neuroscience/articles/10.3389/fncom.2023.1114651/full Source : Frontiers] [https://www.sciencedirect.com/topics/computer-scie... »)
  • 26 novembre 2024 à 20:18Fiabilité (apprentissage automatique) (hist | modifier) ‎[1 012 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX Voir aussi '''apprentissage automatique''' == Français == ''' XXXXXX''' == Anglais == ''' Dependability''' ''In other words, a dependable system – at the very least – delivers correct service consistently, does not suffer from long periods of down-time, and is easily corrected and altered.'' == Source == [https://www.sciencedirect.com/science/article/pii/S016412122100193X Source : ScienceDirect] Ca... ») créé initialement avec le titre « Dependability »
  • 26 novembre 2024 à 20:03Méthode de suppression (hist | modifier) ‎[1 415 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX Voir aussi '''imputation des séries chronologiques''' == Français == ''' XXXXX''' == Anglais == ''' Deletion Method''' ''Deletion methods take a simple strategy that they directly erase the observations that contain missing values from the raw data.'' == Source == [https://arxiv.org/abs/2011.11347v1 Source : arxiv] [https://arxiv.org/abs/2404.04905 Source : arxiv] Catégorie:vocabulary ») créé initialement avec le titre « Deletion Method »
  • 26 novembre 2024 à 19:59Décompression des données (hist | modifier) ‎[592 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX == Français == ''' Décompression des données''' ''' Décompression''' == Anglais == ''' Data Decompression''' ''' Decompression''' == Source == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8383170/decompression-de-donnees Source : La Vitrine linguistique, OQLF] Catégorie:vocabulary ») créé initialement avec le titre « Data Decompression »
  • 26 novembre 2024 à 19:56Data Compression Algorithms (hist | modifier) ‎[504 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == ''' Algorithmes de compression des données''' == Anglais == ''' Data Compression Algorithms''' ''A compression algorithm is a technique used in computer science to reduce the size of a file without removing information.'' == Source == [https://www.sciencedirect.com/topics/computer-science/compression-algorithm Source : ScienceDirect] [https://en.wikipedia.org/wiki/Data_compression Source :... »)
  • 26 novembre 2024 à 19:51Compression des données (hist | modifier) ‎[923 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX == Français == ''' Compression des données''' == Anglais == ''' Data Compression''' ''Opération qui consiste à réduire la taille ou la longueur d'un ensemble d'informations grâce à une transformation réversible qui permet d'éliminer les répétitions.'' == Source == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/2074431/compression-de-donnees Source : La Vitrine linguistique, OQLF]ou [ht... ») créé initialement avec le titre « Data Compression »
  • 26 novembre 2024 à 19:42Multiplet (hist | modifier) ‎[1 169 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Compléments == XXXXXX == Français == ''' Multiplet''' == Anglais == ''' Byte''' ''Le byte, ou multiplet en français, est — indépendamment de l'adressage physique de la mémoire — la plus petite unité « logiquement » adressable par un programme sur un ordinateur.'' == Source == [https://fr.wikipedia.org/wiki/Byte Source : Wikipédia] [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/2... ») créé initialement avec le titre « Byte »
  • 26 novembre 2024 à 19:36Descente de gradient stochastique asynchrone (hist | modifier) ‎[2 130 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''descente de gradient stochastique''' et '''réseau de neurones artificiels''' == Français == ''' Descente de gradient stochastique asynchrone''' == Anglais == ''' Asynchronous Stochastic Gradient Descent''' ''' Asynchronous SGD''' ''' ASGD''' ''Deep neural networks have been shown to achieve state-of-the-art performance in several machine learning tasks. Stochastic Gradient Descent (S... ») créé initialement avec le titre « Asynchronous Stochastic Gradient Descent »
  • 21 novembre 2024 à 17:47Requête d'introspection (hist | modifier) ‎[1 625 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == Cette technique est apparentée à la '''requête de résolution par étapes''', mais l'accent est mis sur la correction d'erreur. Voir aussi '''processus autorégressif''' et '''Reflexion AI''' == Compléments == Il n'est pas certain que le '''robot conversationnel génératif''' identifie lui-même ses erreurs. Soit l'usager lui indique qu'il s'est trompé ou lui demande de faire une introspection (se... ») créé initialement avec le titre « Self-Reflection »
  • 21 novembre 2024 à 17:35Model Warm-Up (hist | modifier) ‎[651 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == Lors de la phase de déploiement d'un modèle qui a été préalablement entraîné, l'échauffement du modèle consiste à exécuter un petit nombre de requêtes d'inférence à un modèle pour initialiser tous ses composants.  == Compléments == Il est important d'observer si le temps de réponse moyen diminue jusqu'à la valeur de latence attendue en production à mesure que l'échauffement progresse. == Français ==... »)
  • 21 novembre 2024 à 17:31Échauffement de l'entraînement (hist | modifier) ‎[1 260 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == L'échauffement de l'entraînement en apprentissage profond fait référence à une phase initiale de l'entraînement d'un modèle où le '''taux d'apprentissage''' est progressivement augmenté à partir d'une d'une petite valeur jusqu'au taux d'apprentissage désiré afin de stabiliser le processus d'optimisation et d'éviter la divergence de l'apprentissage. == Compléments == L'échauffement linéaire de l'entraî... ») créé initialement avec le titre « Training Warm-Up »
  • 21 novembre 2024 à 17:18Grok (hist | modifier) ‎[652 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''généralisation tardive''' et '''grand modèle de langues''' == Français == ''' Grok''' == Anglais == ''' Grok''' == Source == [https://fr.wikipedia.org/wiki/Grok_(chatbot) Source : Wikipédia] [https://www.geeksforgeeks.org/grok-ai-new-chatgpt-alternative/ Source : Geeks for Geeks] Catégorie:vocabulary »)
  • 21 novembre 2024 à 17:03Contamination des données (hist | modifier) ‎[862 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == La contamination des données fait référence à deux concepts : 1) celui de la divulgation volontaire ou involontaire de données ce qui peut nuire à l'entraînement et à la validation d'un modèle, comme la '''contamination des données par indiscrétion'''; 2) à des données qui ont été corrompues ou modifiées d’une manière ou d’une autre, les rendant inexactes, peu fiables ou trompeuses. == Françai... ») créé initialement avec le titre « Data Contamination »
  • 21 novembre 2024 à 16:53Apprentissage automatique causal (hist | modifier) ‎[1 077 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''Causal Deep Learning''' == Français == ''' Apprentissage automatique causal''' == Anglais == ''' Causal Machine Learning''' == Source == [https://arxiv.org/abs/2206.15475 Source : arxiv] Catégorie:vocabulary ») créé initialement avec le titre « Causal Machine Learning »
  • 19 novembre 2024 à 17:35Photonicien (hist | modifier) ‎[1 030 octets]Pitpitt (discussion | contributions) (Page créée avec « == '''PHOTONIQUE '''== == Définition == Science et technologie de la lumière, la photonique associe la physique, l'optique et l'électronique. De la conception au service commercial, en passant par la production, l'ingénieur en photonique est présent à toutes les étapes de l'élaboration d'un produit à haute valeur ajoutée technologique. == Français == '''Photonicien''' '''Photoniciene''' '''ingénieur/e en photonique'''... »)
  • 14 novembre 2024 à 18:38Réseau de Hopfield (hist | modifier) ‎[1 544 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''traitement parallèle réparti''' == Français == ''' XXXXXX''' == Anglais == ''' Hopfield Network''' ''' Hopfield Neural Network''' ''Hopfield Neural Networks are a type of recurrent or fully interconnected neural networks that serve as autoassociative memory systems. '' == Source == [https://www.baeldung.com/cs/hopfield-network Source : Baeldung] [https://www.geeksforgeeks.org/hopfield-... ») créé initialement avec le titre « Hopfield Network »
  • 14 novembre 2024 à 18:28Machine de Helmholtz (hist | modifier) ‎[1 715 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''machine de Boltzmann''', '''Hopfield Network''' et '''réseau d'inférence''' == Français == ''' Machine de Helmholtz''' == Anglais == ''' Helmholtz Machine''' ''The Helmholtz machine is a type of artificial neural network that can account for the hidden structure of a set of data by being trained to create a generative model of the original set of data.'' == Source == [https://hilb... ») créé initialement avec le titre « Helmholtz Machine »
  • 14 novembre 2024 à 18:19Encodage par paires d'octets (hist | modifier) ‎[1 787 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''traitement automatique de la langue naturelle''' == Français == ''' XXXXXXX''' == Anglais == ''' Byte Pair Encoding''' ''' BPE''' ''BPE is a simple form of data compression algorithm in which the most common pair of consecutive bytes of data is replaced with a byte that does not occur in that data'' == Source == [https://www.geeksforgeeks.org/byte-pair-encoding-bpe-in-nlp/ Source : Geeks... ») créé initialement avec le titre « Byte Pair Encoding »
  • 14 novembre 2024 à 18:06Sélection d'actions (hist | modifier) ‎[1 331 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''Action Selection Mechanism''' et '''Action Selection Problem''' == Français == ''' XXXXXXX''' == Anglais == ''' Action Selection''' ''' AS''' ''AS has been defined as a process where an action is selected among a number of alternatives with conflicting demands on the control of scarce resources. '' == Source == [https://klu.ai/glossary/action-selection Source : KLU.ai] [https://www.r... ») créé initialement avec le titre « Action Selection »
  • 14 novembre 2024 à 18:01Étude d'ablation (hist | modifier) ‎[993 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXX Voir aussi '''ablation''', '''réseau de neurones artificiel''' et '''réseau de neurones profond''' == Français == ''' XXXXXX''' == Anglais == ''' Ablation Study''' ''Ablation studies damage or remove certain components in a controlled setting to investigate all possible outcomes of system failure; this characterizes how each action impacts overall system performance and capability. '' == Source ==... ») créé initialement avec le titre « Ablation Study »
  • 14 novembre 2024 à 14:55Vocabulaire (TAL) (hist | modifier) ‎[1 077 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == ''' XXXXXX''' == Anglais == ''' Vocabulary''' ''In the context of natural language processing (NLP), vocabulary refers to the set of unique words that appear in a text corpus.'' == Source == [https://medium.com/@Coursesteach/natural-language-processing-part-4-1ba37434f33b Source : Medium] [https://www.educative.io/courses/natural-language-processing-ml/vocabulary Source : Educative.io] C... ») créé initialement avec le titre « Vocabulary (NLP) »
  • 14 novembre 2024 à 14:48Imputation des séries chronologiques (hist | modifier) ‎[1 843 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''données spatio-temporelles''', '''prévision des séries chronologiques''', '''série chronologique''' et '''Time Series Generation''' == Français == ''' XXXXX''' == Anglais == ''' Time Series Imputation''' ''' Time-Series Imputation''' ''Time series imputation aims to fill in the missing values in incomplete time series data.'' == Source == [https://arxiv.org/abs/2011.11347v1... ») créé initialement avec le titre « Time Series Imputation »
  • 14 novembre 2024 à 14:37Génération des séries chronologiques (hist | modifier) ‎[1 575 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi '''données spatio-temporelles''', '''prédiction des données chronologiques''', '''série chronologique''' et '''Time Series Imputation''' == Français == ''' XXXXX''' == Anglais == ''' Time Series Generation''' ''' Time-Series Generation''' ''' TSG''' ''Time series generation refers to the process of creating synthetic data that resembles the real-world time series.'' == Source... ») créé initialement avec le titre « Time Series Generation »
  • 14 novembre 2024 à 14:26Optimum local (hist | modifier) ‎[1 326 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Optimum local''' == Anglais == ''' Local Optimum''' ''Local optima are solutions that are better than other solutions in the immediate vicinity but are not necessarily the best overall solution, which is referred to as the global optimum.'' == Source == [https://www.geeksforgeeks.org/local-optima-and-influence-of-effectiveness-of-local-search-algorithms/ Source : Geeks for Geeks] [https:... ») créé initialement avec le titre « Local Optimum »
  • 14 novembre 2024 à 14:22Tolérance aux pannes (hist | modifier) ‎[1 568 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == ''' XXXXXX''' == Anglais == ''' Fault Tolerance''' ''' Fault-Tolerance''' ''Fault tolerance specifically refers to a system's capability to handle faults without any degradation or downtime. In the event of an error, end-users remain unaware of any issues. '' ''Fault tolerance refers to the system's ability to continue operating correctly even in the event of failures, ensuring that important da... ») créé initialement avec le titre « Fault Tolerance »
  • 13 novembre 2024 à 16:04Système d'inférence neuro-floue adaptative (hist | modifier) ‎[1 572 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX Voir aussi == Français == ''' XXXXX''' == Anglais == ''' Adaptative Neuro Fuzzy Inference System''' ''' ANFIS''' '''Adaptive Network-based Fuzzy Inference System''' ''An adaptive neuro-fuzzy inference system is defined as an intelligent synthesis of neural networks and fuzzy logic, combining the robustness and learning capabilities of neural networks with the ability to model imprecise knowledge using fuzzy l... ») créé initialement avec le titre « Adaptative Neuro Fuzzy Inference System »
  • 13 novembre 2024 à 15:56Mécanisme de sélection d'actions (hist | modifier) ‎[1 452 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' XXXXXX''' == Anglais == ''' Action Selection Mechanism''' ''' ASM''' ''The action selection mechanism (ASM) determines not only the agent's actions in terms of impact on the world, but also directs its perceptual attention, and updates its memory. '' ''Action selection mechanisms (ASMs) are the systems that enable an agent to choose an action from a range of options. These mechanisms are cr... ») créé initialement avec le titre « Action Selection Mechanism »
  • 13 novembre 2024 à 15:52Problème de sélection d'actions (hist | modifier) ‎[1 376 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXX == Français == ''' XXXXXX''' == Anglais == ''' Action Selection Problem''' ''"the action selection problem" is typically associated with intelligent agents and animats—artificial systems that exhibit complex behaviour in an agent environment. '' ''It characterizes the most basic problem of intelligent systems: deciding what to do next.'' == Source == [https://en.wikipedia.org/wiki/Action_selection Source... ») créé initialement avec le titre « Action Selection Problem »
  • 13 novembre 2024 à 15:47Ablation (hist | modifier) ‎[581 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX == Français == ''' Ablation''' == Anglais == ''' Ablation''' ''In artificial intelligence (AI), particularly machine learning (ML),[1] ablation is the removal of a component of an AI system.'' ''Ablation in machine learning stands as a pivotal method for dissecting the impact of a model's sub-components on its overall performance. '' == Source == [https://en.wikipedia.org/wiki/Ablation_(artificial_intelligen... »)
  • 8 novembre 2024 à 16:40Effondrement postérieur (hist | modifier) ‎[1 297 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == XXXXXXX Voir aussi '''autoencodeur variationnel''' et '''effondrement du modèle''' == Français == ''' XXXXXX''' == Anglais == ''' Posterior Collapse''' ''Posterior collapse in Variational Autoencoders (VAEs) arises when the variational distribution closely matches the uninformative prior for a subset of latent variables.'' == Source == [https://openreview.net/forum?id=4zZFGliCl9 Source : Open Review] [ht... ») créé initialement avec le titre « Posterior Collapse »
(les plus récentes | les plus anciennes) Voir (50 plus récentes | ) (20 | 50 | 100 | 250 | 500)