Nouvelles pages


Nouvelles pages
Masquer utilisateur(s) inscrit(s) | Masquer robot(s) | Afficher redirections(s)
  • 4 mars 2026 à 11:35Semantic shift detection (hist | modifier) ‎[500 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == ''' XXXXXXXXX''' == Anglais == ''' Semantic shift detection''' ''' SSD''' <!--It is the task of identifying, interpreting, and assessing the possible change over time in the meanings of a target word, by clustering its contextualised embeddings.--> == Sources == [https://arxiv.org/abs/2304.01666 Source : arxiv] [https://link.springer.com/article/10.1007/s10579-024-09769-1 Source : Link.Spr... »)
  • 4 mars 2026 à 11:31Distributed physical AI (hist | modifier) ‎[492 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''physical AI''' == Français == ''' XXXXXXX''' == Anglais == ''' Distributed physical artificial intelligence''' ''' Distributed physical AI''' ''' Distributed PAI''' ''' DPAI''' == Source == [https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions Source : Research Gate]... »)
  • 1 mars 2026 à 09:59Integrated physical AI (hist | modifier) ‎[731 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxxxx Voir aussi '''physical AI''' == Français == ''' XXXXXXX''' == Anglais == ''' Integrated physical AI''' ''' Integrated PAI''' ''' IPAI''' <!--Refers to systems that mimic individuals and integrate the perception of the physical world through various sensors (e.g., material sensors, temperature, vision, sound), induction of various indices, and physical responses in the physical world.Robots are a typic... »)
  • 1 mars 2026 à 09:54Digital AI (hist | modifier) ‎[586 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx Voir aussi '''physical AI''' == Français == ''' XXXXX''' == Anglais == ''' Digital AI''' ''' DIAI''' <!--It refers to data-driven AI and data processing that is popular today, most DIAI applications are limited to specific tasks, often functions as a poorly explained “black box”.--> == Source == [https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_... »)
  • 1 mars 2026 à 09:51SacreBLEU (hist | modifier) ‎[552 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''BLEU''' et '''ROUGE''' == Français == ''' SacreBLEU''' == Anglais == ''' SacreBLEU''' <!--A reference BLEU implementation that auto-downloads test sets and reports a version string to facilitate cross-lab comparisons. It also knows all the standard test sets and handles downloading, processing, and tokenization.--> == Sources == [https://aclanthology.org/W18-6319/ Source : ACL Antholo... »)
  • 1 mars 2026 à 09:48LEPOR (hist | modifier) ‎[900 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''BLEU''', '''METEOR''', '''NIST''' et '''TER''' == Français == ''' LEPOR''' == Anglais == ''' Length Penalty, Precision, n-gram Position difference Penalty and Recall''' ''' LEPOR''' <!--LEPOR stands for Length Penalty, Precision, n-gram Position difference Penalty and Recall and it is an automatic machine translation evaluation metric with tunable parameters and au... »)
  • 27 février 2026 à 13:50Word error rate (hist | modifier) ‎[1 002 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Compléments == Attention: À ne pas confondre avec '''TER'''! <!--derived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity--> == Français == ''' Taux d'erreur de mots''' '''XXXXXX''' == Anglais == ''' Word error... »)
  • 24 février 2026 à 15:29Recherche d'informations (hist | modifier) ‎[570 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== Ensemble des opérations, méthodes et procédures ayant pour objet d'extraire les informations concernant un sujet donné à partir de documents ou de bases de données. ==Français== '''recherche d'informations''' '''recherche de l'information''' ==Anglais== '''Information retrieval''' ==Sources== [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=INFORMATION+RETRIEVAL&index=alt&codom2nd_wet=1#resultrecs -... ») créé initialement avec le titre « Information retrieval »
  • 24 février 2026 à 11:29NIST (metric) (hist | modifier) ‎[1 197 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''BLEU''' == Compléments == <!--Compared to BLEU, NIST gives more importance to the less frequent n-grams, also differs from BLEU in its calculation of the brevity penalty insofar as small variations in translation length do not impact the overall score as much. Le nom de la métrique provient du ''National Institute of Standards and Technology''.--> == Français == ''' NIST''' == Anglais == '''... »)
  • 24 février 2026 à 11:23YiSi (hist | modifier) ‎[752 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''BLEU''', '''chrF''', '''MEANT''' et '''METEOR''' == Français == ''' YiSi''' == Anglais == ''' YiSi''' <!--A family of semantic machine translation evaluation metrics using sentence representation for languages with different levels of available resources. It calculates the similarity by aggregating the weighted distributional lexical semantic similarities... »)
  • 24 février 2026 à 11:17METEOR (hist | modifier) ‎[1 055 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''BLEU''' et '''NIST''' == Compléments == <!--Differs from the BLEU metric in that BLEU seeks correlation at the corpus level.--> == Français == ''' METEOR''' == Anglais == ''' METEOR''' ''' Metric for Evaluation of Translation with Explicit Ordering''' <!--METEOR stands for Metric for Evaluation of Translation with Explicit Ordering and it is used for automatic evaluation of machine tran... »)
  • 24 février 2026 à 11:11ROUGE (hist | modifier) ‎[1 213 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''BLEU''' == Compléments == <!-- Peut être calculée à l'aide de librairie SacreBLEU. En raison des points faibles de ROUGE, ROUGE 2.0 à été proposé en 2018. Même s'il s'agit d'un ensemble de métriques, on retrouve souvent la mention ''ROUGE score'' dans les textes.--> == Français == ''' ROUGE''' == Anglais == ''' ROUGE''' '''Recall-Oriented Understudy for Gisting Evaluation''' <!... »)
  • 23 février 2026 à 14:14Representation autoencoder (hist | modifier) ‎[576 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''DINO''' == Français == ''' XXXXXXXX''' == Anglais == ''' Representation autoencoder''' '''RAE''' <!--A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers. --> == Sources == [https://arxiv.org/abs/2510.11690 Source : arxiv] [https://github.com/... »)
  • 23 février 2026 à 14:01LLM-as-a-judge (hist | modifier) ‎[1 042 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx == Français == ''' GML en tant que juge''' ''' GML comme juge''' == Anglais == ''' LLM-as-a-judge''' <!--A (family of) technique(s) in natural language processing that uses one large language model (LLM) to evaluate another LLM’s work. A typical LLM-as-a-Judge setup consists of three elements: an input that contains the task context and candidate outputs to be evaluated, a prompt that explains the evaluation... »)
  • 22 février 2026 à 15:11Large Language Model Operations (hist | modifier) ‎[884 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == ''' XXXXXXX''' == Anglais == ''' Large Language Model Operations''' '''LLMOP''' <!--Set of practices and workflows that speed development, deployment and management of AI models throughout their complete lifecycle, such as le déploiement et la maintenance des modèles, la gestion des données, l’entraînement et le peaufinage des modèles, ainsi que leur surveillance et leur évaluation. Bec... »)
  • 22 février 2026 à 15:07Locally typical sampling (hist | modifier) ‎[784 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx Voir aussi '''échantillonnage des k-meilleurs''' et '''ergodicité''' == Français == ''' XXXXXX''' == Anglais == ''' Locally typical sampling''' <!--Sampling method that improves text quality and reduces repetitions in probabilistic language generators. The idea is that when you want a text to be perceived as natural, each word should have an information content close to its expected information conte... »)
  • 22 février 2026 à 15:03DAPO (hist | modifier) ‎[1 112 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == ''' XXXXXXXX''' Voir aussi '''optimisation de la politique proximale''' et '''optimisation de la politique relative au groupe''' == Anglais == ''' DAPO''' ''' Decoupled Clip and Dynamic Sampling Policy Optimization''' <!--A reinforcement learning algorithm that reinforces reasoning patterns and also gives rise to new modes of reasoning that facilitate correct problem-solving. One of its... »)
  • 29 janvier 2026 à 11:28Largeur du faisceau (hist | modifier) ‎[926 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == Paramètre de l’'''algorithme de recherche en faisceau''' qui définit le nombre de nœuds considérés à chaque niveau afin de limiter la mémoire nécessaire pour effectuer la recherche. Plus ce paramètre est grand, moins d’'''états''' sont éliminés. Il influence donc directement l'étendue de la recherche. == Compléments == Avec une largeur de faisceau infinie, aucun état n'est éliminé et la... ») créé initialement avec le titre « Beam width »
  • 27 janvier 2026 à 16:31BLEURT (hist | modifier) ‎[1 146 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxx Voir aussi '''BLEU''' == Français == '''XXXXXXXX''' == Anglais == '''Bilingual Evaluation Understudy with Representations from Transformers''' ''' BLEURT''' <!--Trained evaluation metric that takes a pair of sentences as input (a reference and a candidate), and it returns a score that indicates to what extent the candidate is fluent and conveys the meaning of the reference. It can capture non-trivial sem... »)
  • 27 janvier 2026 à 16:27TER (hist | modifier) ‎[1 405 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == '''XXXXXXXX''' == Anglais == '''Translation Error Rate''' '''TER''' <!--Metric for automatic evaluation of machine translation that calculates the number of edits required to change a machine translation output into one of the references. It measures the insertions, deletions, substitutions, and shifts needed to transform a machine-generated hypothesis into reference translation. A lower TER, clos... »)
  • 26 janvier 2026 à 15:18COMET (hist | modifier) ‎[1 271 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxxxx == Français == '''COMET''' == Anglais == '''COMET''' <!--A metric for automatic evaluation of machine translation that calculates the similarity between a machine translation output and a reference translation using token or sentence embeddings. Unlike BERTScore, COMET is trained on predicting different types of human judgements in the form of post-editing effort, direct assessment or translation error analy... »)
  • 26 janvier 2026 à 15:15BERTScore (hist | modifier) ‎[2 084 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxxx == Français == '''XXXXXXXX''' == Anglais == '''BERTScore''' <!--Metric for automatic evaluation of machine translation that calculates the similarity between a machine translation output and a reference translation using sentence representation. It was invented as an improvement on n-gram-based metrics (see BLEU), and addresses two common pitfalls in these: 1) Such methods often fail to robustly match paraphras... »)
  • 26 janvier 2026 à 15:11Character n-gram F-score (hist | modifier) ‎[1 063 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx == Français == '''XXXXXXX''' == Anglais == '''Character n-gram F-score''' '''chrF''' <!--Metric for machine translation evaluation that calculates the similarity between a machine translation output and a reference translation using character n-grams, not word n-grams. It recognizes different forms of a single word. It is language-independent and language-independent.--> == Sources == [https://aclanthology.org... »)
  • 26 janvier 2026 à 15:04Priority sampling (hist | modifier) ‎[1 315 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx Voir aussi '''échantillonnage des k-meilleurs''', '''échantillonnage des p-meilleurs''' et '''expression rationnelle''' == Français == '''XXXXXXX''' == Anglais == ''' Priority sampling''' <!--Deterministic sampling method that produces unique samples ordered by the model’s confidence. It supports generation based on regular expression that provides a controllable and structured exploration proce... »)
  • 26 janvier 2026 à 15:00Greedy sampling (hist | modifier) ‎[1 032 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx Voir aussi '''échantillonnage des k-meilleurs''' == Français == '''XXXXXXXX''' == Anglais == '''greedy sampling''' <!--Deterministic sampling method that is computationally efficient and straightforward to implement, where the word with the highest conditional probability is selected as the next word in the sentence, given the previous words. This method often results in suboptimal and repetitive sequences.... »)
  • 26 janvier 2026 à 14:56FLOPS (hist | modifier) ‎[2 306 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxxx == Compléments == Ne pas confondre avec FLOP, qui correspond à une opération arithmétique effectuée sur des nombres décimaux. == Français == ''' XXXXXXXX''' == Anglais == '''Floating-Point Operations per Second''' ''' FLOPS''' <!--FLOPS stands for Floating-Point Operations per Second and it is used to measure the computational cost or complexity of a model or a specific operation within the model. This... »)
  • 26 janvier 2026 à 14:51Attention sink (hist | modifier) ‎[2 061 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Compléments == On peut aussi utiliser le terme pour désigner spécifiquement ce genre de '''segment textuel''', on peut alors l'écrire au pluriel en fonction du contexte. == Français == ''' XXXXXXX''' == Anglais == ''' attention sink''' <!--This term can refer to the phenomenon or to the type of token concerned by the phenomenon. This phenomenon is present in all autoregressive large language models, i... »)
  • 26 janvier 2026 à 14:45Self-play fine-tuning (hist | modifier) ‎[1 165 octets]Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx Voir '''GRPO''' == Français == ''' XXXXXX''' == Anglais == ''' self-play fine-tuning''' ''' self-play fine tuning''' ''' SPIN''' <!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference da... »)
  • 5 janvier 2026 à 11:01Manifold-Constrained Hyper-Connections (hist | modifier) ‎[516 octets]Pitpitt (discussion | contributions) (Page créée avec « == EN CONSTRUCTION == == Définition == xxxxx == Français == '''xxxxx ''' == Anglais == '''Manifold-Constrained Hyper-Connections''' '''mHC''' Manifold-Constrained Hyper-Connections stabilize and scale residual connection architectures by restoring identity mapping properties through manifold projection and infrastructure optimization. ==Sources== [XXXX Sources : XXXXX ] Catégorie:vocabulary »)
  • 2 janvier 2026 à 17:28Lexique de la Station spatiale internationale (hist | modifier) ‎[199 octets]Pitpitt (discussion | contributions) (Page créée avec «  Document PDF <image href="https://datafrana.org/wiki/images/lexique-SSI.jpg> »)
  • 28 décembre 2025 à 18:53Swatting (hist | modifier) ‎[882 octets]Pitpitt (discussion | contributions) (Page créée avec « == EN CONSTRUCTION == == Définition == Le "swatting" est une forme de harcèlement criminel qui consiste à tromper les services d'urgence (par exemple en escroquant un répartiteur) afin qu'ils dépêchent des policiers ou une équipe d'intervention chez une autre personne. Cela se fait notamment par de faux signalements d'urgences graves, comme une alerte à la bombe, une fusillade de masse, des violences conjugales, un meurtre, une prise d'otages, ou encor... »)
  • 16 décembre 2025 à 15:08Modèle de résolution hiérarchique (hist | modifier) ‎[1 305 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == == Compléments == Nous proposons d'utiliser ''modèle de résolution de problèmes hiérarchique'' plutôt que ''modèle de raisonnement hiérarchique'' puisque l'utilisation du terme ''raisonnement'' a une connotation anthropomorphique; ces modèles ne raisonnent pas, ils ne font que simuler un raisonnement. == Français == '''modèle de résolution de problèmes hiérarchique''' '''MRPH''' '''modèle de raisonnement hiérarchique''' '... ») créé initialement avec le titre « Hierarchical Reasoning Model »
  • 16 décembre 2025 à 14:42Mini-modèle récurrent (hist | modifier) ‎[2 743 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == En construction == == Définition == == Compléments == == Français == '''mini-réseau récurrent''' '''mini-réseau récursif''' '''MRR''' '''MRRNN''' == Anglais == '''tiny recursive model''' '''TRM''' ==Sources== [https://legrandcontinent.eu/fr/2025/11/12/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia/ - Tiny Recursive Model] [https://arxiv.org/abs/2510.04871 arXiv - Tiny Recursive Model] [https://moazharu.medium.com/bu... ») créé initialement avec le titre « Tiny Recursive Model »
  • 16 décembre 2025 à 14:25Avatar post-mortem (hist | modifier) ‎[1 102 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Avatar numérique créé à l'aide de l'intelligence artificielle qui imite une personne décédée. == Compléments == L'aspect écrit de l'avatar est pris en charge par un robot conversationnel génératif tandis que l'aspect visuel repose typiquement sur des outils de génération texte-à-image. == Français == '''avatar post-mortem''' '''avatar numérique post-mortem''' '''robot post-mortem''' '''robot posthume''... ») créé initialement avec le titre « Griefbot »
  • 15 décembre 2025 à 19:562026 termes photonique (hist | modifier) ‎[974 octets]Pitpitt (discussion | contributions) (Page créée avec « == EN CONSTRUCTION == '''Nouveaux termes proposés par Benoit Sévigny''' Angle de Brewster Anisotropie Axe extraordinaire Axe ordinaire Bande chaude Bande de séquence Bande régulière Biréfringence Cavité résonante Cellule de Pockels Cœur (d'une fibre optique) Complémentaire (idler) Dichroïque Domaine fréquentiel (après Transformée de Fourier) Domaine temporel Effet acousto-optique Effet piézo-électrique Effet Tcherenkov Fluorescence FROG Gaine (... ») créé initialement avec le titre « 2026 photonique »
  • 12 décembre 2025 à 10:40Native Sparse Attention (hist | modifier) ‎[1 289 octets]Pitpitt (discussion | contributions) (Page créée avec « == EN CONSTRUCTION == == Définition == xxxxx == Français == '''xxxxx ''' == Anglais == '''Native Sparse Attention''' '''DSA''' Hardware-Aligned and Natively Trainable Sparse Attention Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model... »)