<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
	<id>https://datafranca.org/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Patrickdrouin</id>
	<title>DataFranca - Contributions [fr]</title>
	<link rel="self" type="application/atom+xml" href="https://datafranca.org/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Patrickdrouin"/>
	<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/Sp%C3%A9cial:Contributions/Patrickdrouin"/>
	<updated>2026-04-15T12:07:10Z</updated>
	<subtitle>Contributions</subtitle>
	<generator>MediaWiki 1.39.5</generator>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=BLEU&amp;diff=120328</id>
		<title>BLEU</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=BLEU&amp;diff=120328"/>
		<updated>2026-04-14T19:29:06Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
BLEU (bilingual evaluation understudy) est un algorithme d’évaluation de la qualité du texte qui a été traduit automatiquement d’une langue naturelle à une autre. &lt;br /&gt;
&lt;br /&gt;
BLEU a été l’une des premières métriques à revendiquer une corrélation élevée avec les jugements humains de qualité, et reste l’une des métriques automatisées les plus populaires et les moins coûteuses.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; BLEU&#039;&#039;&#039;   &amp;lt;small&amp;gt; nom propre &amp;lt;/small&amp;gt;&lt;br /&gt;
  &lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; BLEU&#039;&#039;&#039; &#039;&#039;(bilingual evaluation understudy) &#039;&#039;&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/BLEU_(algorithme)  Source : Wikipedia ]&lt;br /&gt;
&lt;br /&gt;
[https://www.accenture.com/us-en/applied-intelligence-glossary    Source : Accenture - applied intelligence glossary ]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:ENGLISH]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_enseignant&amp;diff=120327</id>
		<title>Modèle enseignant</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_enseignant&amp;diff=120327"/>
		<updated>2026-04-14T19:22:29Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Page créée avec « == Définition == En apprentissage automatique, un modèle enseignant est un vaste réseau neuronal pré-entraîné qui guide un modèle « élève » plus petit à reproduire ses performances grâce à un processus appelé distillation de modèles.  == Compléments == Attention à ne pas confondre avec un modèle d&amp;#039;enseignement pour la formation assistée par ordinateur destiné aux humains.  == Français == &amp;#039;&amp;#039;&amp;#039;modèle enseignant&amp;#039;&amp;#039;&amp;#039;  &amp;#039;&amp;#039;&amp;#039;modèle d&amp;#039;app... »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
En apprentissage automatique, un modèle enseignant est un vaste [[réseau neuronal]] pré-entraîné qui guide un modèle « élève » plus petit à reproduire ses performances grâce à un processus appelé [[distillation de modèles]].&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Attention à ne pas confondre avec un modèle d&#039;enseignement pour la [[formation assistée par ordinateur]] destiné aux humains.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;modèle enseignant&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle d&#039;apprentissage enseignant&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;teacher model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;teaching model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://yassinechabli.substack.com/p/les-modeles-distilles  Yassine Chabli (2025) - modèle enseignant]&lt;br /&gt;
&lt;br /&gt;
[https://hal.science/hal-04446898/file/Strat%C3%A9gies_de_Compression_et_d_Optimisation_des_Mod%C3%A8les_d_Intelligence_Artificielle.pdf Moez Krichen (2024) - modèle enseignant]&lt;br /&gt;
&lt;br /&gt;
[https://www.ibm.com/think/topics/knowledge-distillation IBM - teacher model]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120326</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120326"/>
		<updated>2026-04-14T19:05:04Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même (&#039;&#039;self-play mechanism&#039;&#039;) en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèle enseignant|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120325</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120325"/>
		<updated>2026-04-14T19:03:37Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même (&#039;&#039;self-play mechanism&#039;&#039;) en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèles enseignants|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120324</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120324"/>
		<updated>2026-04-14T19:03:09Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même (&#039;&#039;self-play mechanism&#039;&#039;) en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèles enseignants|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Self-play_fine-tuning&amp;diff=120323</id>
		<title>Self-play fine-tuning</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Self-play_fine-tuning&amp;diff=120323"/>
		<updated>2026-04-14T19:02:27Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Self-play fine-tuning vers Peaufinage par auto-jeu&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Peaufinage par auto-jeu]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120322</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120322"/>
		<updated>2026-04-14T19:02:26Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Self-play fine-tuning vers Peaufinage par auto-jeu&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même &#039;&#039;self-play mechanism&#039;&#039; en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèles enseignants|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120321</id>
		<title>Peaufinage par auto-jeu</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Peaufinage_par_auto-jeu&amp;diff=120321"/>
		<updated>2026-04-14T19:02:09Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Algorithme de &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; pour les &#039;&#039;&#039;[[Grand modèle de langues (GML)|grands modèles de langues (GML)]]&#039;&#039;&#039; qui utilise un mécanisme qui lui permet de jouer contre lui-même &#039;&#039;self-play mechanism&#039;&#039; en utilisant les versions précédentes du modèle.  &lt;br /&gt;
&lt;br /&gt;
Voir aussi [[Optimisation de la politique relative au groupe]] et [[Apprentissage par curriculum auto-évolutif]]&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Cette technique réduit la dépendance vis-à-vis des &#039;&#039;&#039;[[Jeu de données|jeux de données]]&#039;&#039;&#039; externes ou des [[Modèles enseignants|modèles enseignants]].&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; peaufinage par auto-jeu&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-play fine-tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; self-play fine tuning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SPIN&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--A language model finetuning algorithm for large language models that utilizes a self-play mechanism, allowing LLMs to improve themselves by playing against their previous iterations. This techinique reduces reliance on external preference datasets or stronger teacher models.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://theses.hal.science/tel-05430689v1/file/154915_XU_2025_archivage.pdf Zhuofan Xu (2025) - Auto-jeu]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2401.01335   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/uclaml/SPIN  Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://verl.readthedocs.io/en/latest/algo/spin.html   Source: verl]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120320</id>
		<title>Échantillonnage par priorité</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120320"/>
		<updated>2026-04-14T18:42:38Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode d&#039;échantillonnage déterministe qui produit des échantillons uniques classés par ordre de confiance par le &#039;&#039;&#039;[[Modèle d&#039;intelligence artificielle|modèle]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage des k-meilleurs]]&#039;&#039;&#039;, &#039;&#039;&#039;[[échantillonnage des p-meilleurs]]&#039;&#039;&#039; et &#039;&#039;&#039;[[expression rationnelle]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
L&#039;échantillonnage par priorité est utilisé par les [[grand modèle de langues|grands modèles de langues]], plus particulièrement pour la génération automatique de code. Il prend en charge la génération d&#039;échantillons basée sur des &#039;&#039;&#039;[[expression rationnelle|expressions régulières]]&#039;&#039;&#039; qui fournissent un processus d&#039;exploration contrôlable et structuré. Par conséquent, elle se concentre toujours sur la recherche dans la direction la plus intéressante en fonction des échantillons précédents, plutôt que de se baser sur une prédiction statistique comme pour l&#039;[[échantillonnage des p-meilleurs]] (&#039;&#039;nucleus sampling&#039;&#039;). &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;échantillonnage par priorité&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;échantillonnage prioritaire&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; priority sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Deterministic sampling method that produces unique samples ordered by the model’s confidence. It supports generation based on regular expression that provides a controllable and structured exploration process. Therefore, it always focuses on the search forwards the most interesting direction based on previous samples, rather than determining this in advance.&lt;br /&gt;
&lt;br /&gt;
It outperforms Nucleus Sampling for any number of samples.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2402.18734   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Priority_sampling&amp;diff=120319</id>
		<title>Priority sampling</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Priority_sampling&amp;diff=120319"/>
		<updated>2026-04-14T18:42:16Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Priority sampling vers Échantillonnage par priorité&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Échantillonnage par priorité]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120318</id>
		<title>Échantillonnage par priorité</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120318"/>
		<updated>2026-04-14T18:42:16Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Priority sampling vers Échantillonnage par priorité&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode d&#039;échantillonnage déterministe qui produit des échantillons uniques classés par ordre de confiance par le &#039;&#039;&#039;[[Modèle d&#039;intelligence artificielle|modèle]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage des k-meilleurs]]&#039;&#039;&#039;, &#039;&#039;&#039;[[échantillonnage des p-meilleurs]]&#039;&#039;&#039; et &#039;&#039;&#039;[[expression rationnelle]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
L&#039;échantillonnage par priorité est utilisé par les [[grand modèle de langues|grands modèles de langues]], plus particulièrement pour la génération automatique de code. Il prend en charge la génération d&#039;échantillons basée sur des &#039;&#039;&#039;[[expression rationnelle|expressions régulières]]&#039;&#039;&#039; qui fournissent un processus d&#039;exploration contrôlable et structuré. Par conséquent, elle se concentre toujours sur la recherche dans la direction la plus intéressante en fonction des échantillons précédents, plutôt que de se baser sur une prédiction statistique comme pour l&#039;[[échantillonnage des p-meilleurs]] (&#039;&#039;nucleus sampling&#039;&#039;). &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;échantillonnage par priorité&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; priority sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Deterministic sampling method that produces unique samples ordered by the model’s confidence. It supports generation based on regular expression that provides a controllable and structured exploration process. Therefore, it always focuses on the search forwards the most interesting direction based on previous samples, rather than determining this in advance.&lt;br /&gt;
&lt;br /&gt;
It outperforms Nucleus Sampling for any number of samples.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2402.18734   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_de_masse_p&amp;diff=120317</id>
		<title>Échantillonnage à troncature de masse p</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_de_masse_p&amp;diff=120317"/>
		<updated>2026-04-14T18:41:04Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Échantillonnage à troncature de masse p vers Échantillonnage des p-meilleurs&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Échantillonnage des p-meilleurs]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_des_p-meilleurs&amp;diff=120316</id>
		<title>Échantillonnage des p-meilleurs</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_des_p-meilleurs&amp;diff=120316"/>
		<updated>2026-04-14T18:41:04Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Échantillonnage à troncature de masse p vers Échantillonnage des p-meilleurs&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d&#039;un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil &#039;&#039;p&#039;&#039; défini (la &#039;&#039;masse de probabilité&#039;&#039;) également appelée &#039;&#039;noyau&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage à troncature k fixe]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette stratégie d&#039;échantillonnage est utilisée par les [[grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un [[segment textuel]] parmi un ensemble de [[segment textuel|segments textuels]]. &lt;br /&gt;
&lt;br /&gt;
Alors que l&#039;[[échantillonnage à troncature k fixe]] limite l&#039;échantillon à un nombre &#039;&#039;k&#039;&#039; fixe de mots, l&#039;échantillonnage à troncature de masse p spécifie une probabilité cumulée &#039;&#039;p&#039;&#039; entre 0 et 1 et on échantillonne parmi un nombre variable de [[segment textuel|segments textuels]] dont la somme des probabilités atteint ou dépasse p. &lt;br /&gt;
&lt;br /&gt;
En pratique, l&#039;échantillonnage à troncature de masse p est préféré à l&#039;[[échantillonnage à troncature k fixe]] car il est plus adaptatif. &lt;br /&gt;
&lt;br /&gt;
Notez qu&#039;il est généralement recommandé de spécifier soit la &#039;&#039;&#039;[[température]]&#039;&#039;&#039;, soit le paramètre &#039;&#039;p&#039;&#039;, mais pas les deux.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage des p-meilleurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Échantillonnage à troncature de masse p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage du noyau&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par troncature dynamique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par seuil de probabilité cumulée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage top-p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Top-p sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Nucleus sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Stochastic decoding strategy for generating sequences form autoregressive probabilistic models that introduces randomness while maintaining quality. The choice of p can significantly influence the generated text. Its core idea is to sample from a smaller, more credible set of tokens at each step (called the nucleus). It is useful when you want more adaptative and context-sensitive text generation. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;In practice, top-p sampling is often preferred over top-k because it’s adaptive. It is generally recommended to specify either the temperature or the top_p parameter, but not both.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342 Medium - Top-k sampling, Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling#Top-k_sampling  Wikipedia - Top-k sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling Wikipedia - Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT: echantillonnage des p}}&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_des_p-meilleurs&amp;diff=120315</id>
		<title>Échantillonnage des p-meilleurs</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_des_p-meilleurs&amp;diff=120315"/>
		<updated>2026-04-14T18:40:23Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d&#039;un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil &#039;&#039;p&#039;&#039; défini (la &#039;&#039;masse de probabilité&#039;&#039;) également appelée &#039;&#039;noyau&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage à troncature k fixe]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette stratégie d&#039;échantillonnage est utilisée par les [[grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un [[segment textuel]] parmi un ensemble de [[segment textuel|segments textuels]]. &lt;br /&gt;
&lt;br /&gt;
Alors que l&#039;[[échantillonnage à troncature k fixe]] limite l&#039;échantillon à un nombre &#039;&#039;k&#039;&#039; fixe de mots, l&#039;échantillonnage à troncature de masse p spécifie une probabilité cumulée &#039;&#039;p&#039;&#039; entre 0 et 1 et on échantillonne parmi un nombre variable de [[segment textuel|segments textuels]] dont la somme des probabilités atteint ou dépasse p. &lt;br /&gt;
&lt;br /&gt;
En pratique, l&#039;échantillonnage à troncature de masse p est préféré à l&#039;[[échantillonnage à troncature k fixe]] car il est plus adaptatif. &lt;br /&gt;
&lt;br /&gt;
Notez qu&#039;il est généralement recommandé de spécifier soit la &#039;&#039;&#039;[[température]]&#039;&#039;&#039;, soit le paramètre &#039;&#039;p&#039;&#039;, mais pas les deux.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage des p-meilleurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Échantillonnage à troncature de masse p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage du noyau&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par troncature dynamique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par seuil de probabilité cumulée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage top-p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Top-p sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Nucleus sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Stochastic decoding strategy for generating sequences form autoregressive probabilistic models that introduces randomness while maintaining quality. The choice of p can significantly influence the generated text. Its core idea is to sample from a smaller, more credible set of tokens at each step (called the nucleus). It is useful when you want more adaptative and context-sensitive text generation. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;In practice, top-p sampling is often preferred over top-k because it’s adaptive. It is generally recommended to specify either the temperature or the top_p parameter, but not both.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342 Medium - Top-k sampling, Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling#Top-k_sampling  Wikipedia - Top-k sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling Wikipedia - Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT: echantillonnage des p}}&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120314</id>
		<title>Échantillonnage par priorité</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_par_priorit%C3%A9&amp;diff=120314"/>
		<updated>2026-04-14T18:39:01Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode d&#039;échantillonnage déterministe qui produit des échantillons uniques classés par ordre de confiance par le &#039;&#039;&#039;[[Modèle d&#039;intelligence artificielle|modèle]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage des k-meilleurs]]&#039;&#039;&#039;, &#039;&#039;&#039;[[échantillonnage des p-meilleurs]]&#039;&#039;&#039; et &#039;&#039;&#039;[[expression rationnelle]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
L&#039;échantillonnage par priorité est utilisé par les [[grand modèle de langues|grands modèles de langues]], plus particulièrement pour la génération automatique de code. Il prend en charge la génération d&#039;échantillons basée sur des &#039;&#039;&#039;[[expression rationnelle|expressions régulières]]&#039;&#039;&#039; qui fournissent un processus d&#039;exploration contrôlable et structuré. Par conséquent, elle se concentre toujours sur la recherche dans la direction la plus intéressante en fonction des échantillons précédents, plutôt que de se baser sur une prédiction statistique comme pour l&#039;[[échantillonnage des p-meilleurs]] (&#039;&#039;nucleus sampling&#039;&#039;). &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;échantillonnage par priorité&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; priority sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Deterministic sampling method that produces unique samples ordered by the model’s confidence. It supports generation based on regular expression that provides a controllable and structured exploration process. Therefore, it always focuses on the search forwards the most interesting direction based on previous samples, rather than determining this in advance.&lt;br /&gt;
&lt;br /&gt;
It outperforms Nucleus Sampling for any number of samples.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2402.18734   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Expression_rationnelle&amp;diff=120313</id>
		<title>Expression rationnelle</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Expression_rationnelle&amp;diff=120313"/>
		<updated>2026-04-14T18:21:28Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Motif constitué d&#039;une chaîne de caractères spécifiant des conditions à remplir lors d&#039;une recherche effectuée dans un éditeur de texte et qui correspond à la chaîne recherchée.  &lt;br /&gt;
&lt;br /&gt;
Note -&lt;br /&gt;
Une expression rationnelle est formée de texte et de caractères spéciaux (les métacaractères). Ces derniers sont des caractères possédant une signification particulière et qui, dans un contexte d&#039;expression rationnelle, sont interprétés comme des opérateurs.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; expression rationnelle&#039;&#039;&#039;  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; expression régulière&#039;&#039;&#039;  (calque de l&#039;anglais très courant dans le domaine)&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;regular expression   &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;REGEX    &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[http://gdt.oqlf.gouv.qc.ca/ficheOqlf.aspx?Id_Fiche=8359703    Source : GDT]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119232</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119232"/>
		<updated>2026-03-31T19:35:08Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique d&#039;optimisation d&#039;une [[Réseau autoattentif|architecture auto-attentive]] qui vise à réduire le nombre de calculs nécessaires au mécanisme d&#039;auto-attention. &lt;br /&gt;
&lt;br /&gt;
== Compléments == &lt;br /&gt;
Au lieu de comparer tous les [[segment textuel|segments textuels]] entre eux, un processus de sélection concentre l&#039;attention sur certains segments en particulier selon différentes heuristiques. Par exemple, es heuristiques exploitent une largeur de fenêtre, la position d&#039;un jeton dans une phrase, la similarité des segments, etc.&lt;br /&gt;
&lt;br /&gt;
Cette technique d&#039;optimisation a été mise de l&#039;avant par la société DeepSeek-AI. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119231</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119231"/>
		<updated>2026-03-31T19:34:53Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique d&#039;optimisation d&#039;une [[Réseau autoattentif|architecture auto-attentive]] qui vise à réduire le nombre de calculs nécessaires au mécanisme d&#039;auto-attention. &lt;br /&gt;
&lt;br /&gt;
== Compléments == &lt;br /&gt;
Au lieu de comparer tous les [[segment textuel|segments textuels]] entre eux, un processus de sélection concentre l&#039;attention sur certains segments en particulier selon différentes heuristiques. Par exemple, es heuristiques exploitent une largeur de fenêtre, la position d&#039;un jeton dans une phrase, la similarité des segments, etc.&lt;br /&gt;
&lt;br /&gt;
Cette technique d&#039;optimisation a été mise de l&#039;avant par la société DeepSeek. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119230</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119230"/>
		<updated>2026-03-31T19:33:41Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique d&#039;optimision d&#039;une [[Réseau autoattentif|architecture auto-attentive]] qui vise à réduire le nombre de calculs nécessaires au mécanisme d&#039;auto-attention. &lt;br /&gt;
&lt;br /&gt;
== Compléments == &lt;br /&gt;
Au lieu de comparer tous les [[segment textuel|segments textuels]] entre eux, un processus de sélection concentre l&#039;attention sur certains segments en particulier selon différentes heuristiques. Par exemple, es heuristiques exploitent une largeur de fenêtre, la position d&#039;un jeton dans une phrase, la similarité des segments, etc.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Sparse_attention&amp;diff=119228</id>
		<title>Sparse attention</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Sparse_attention&amp;diff=119228"/>
		<updated>2026-03-31T19:23:43Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Sparse attention vers Attention clairsemée&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Attention clairsemée]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119227</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119227"/>
		<updated>2026-03-31T19:23:43Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Sparse attention vers Attention clairsemée&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
xxxxx&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119226</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119226"/>
		<updated>2026-03-31T19:23:26Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
xxxxx&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention parcimonieuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention creuse&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attention clairsemée native&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;sparse attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;native sparse attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;!-- Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.--&amp;gt;&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://espace.etsmtl.ca/id/eprint/3299/ Aroosa Hameed (2023) - attention clairsemée ]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Attention_(apprentissage_automatique) Wikipedia - attention clairsemée]&lt;br /&gt;
&lt;br /&gt;
[https://aarnphm.xyz/thoughts/papers/DeepSeek_V3_2.pdf  DeepSeek - sparse attention]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Native_Sparse_Attention&amp;diff=119225</id>
		<title>Native Sparse Attention</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Native_Sparse_Attention&amp;diff=119225"/>
		<updated>2026-03-31T19:07:53Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Native Sparse Attention vers Sparse attention&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Sparse attention]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119224</id>
		<title>Attention clairsemée</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_clairsem%C3%A9e&amp;diff=119224"/>
		<updated>2026-03-31T19:07:53Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Native Sparse Attention vers Sparse attention&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== EN CONSTRUCTION ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
xxxxx&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;xxxxx &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Native Sparse Attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;DSA&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
 &#039;&#039;&#039;Hardware-Aligned and Natively Trainable Sparse Attention&#039;&#039;&#039;&lt;br /&gt;
 &lt;br /&gt;
 Long-context modeling is crucial for next-generation language models, yet the high computational cost of standard attention mechanisms poses significant computational challenges. Sparse attention offers a promising direction for improving efficiency while maintaining model capabilities. We present NSA, a Natively trainable Sparse Attention mechanism that integrates algorithmic innovations with hardware-aligned optimizations to achieve efficient long-context modeling. NSA employs a dynamic hierarchical sparse strategy, combining coarse-grained token compression with fine-grained token selection to preserve both global context awareness and local precision. Our approach advances sparse attention design with two key innovations: (1) We achieve substantial speedups through arithmetic intensity-balanced algorithm design, with implementation optimizations for modern hardware. (2) We enable end-to-end training, reducing pretraining computation without sacrificing model performance.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://arxiv.org/abs/2502.11089     Sources :  arxiv]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119219</id>
		<title>Interprétabilité mécaniste</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119219"/>
		<updated>2026-03-31T19:01:46Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Sous-domaine de recherche au sein de l&#039;[[interprétabilité]] de l&#039;IA qui vise à comprendre le fonctionnement interne des [[réseaux neuronaux]] en analysant les mécanismes présents dans leurs calculs. &lt;br /&gt;
 &lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette approche cherche à analyser les [[réseaux neuronaux]] de la même manière que l&#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;interprétabilité mécaniste&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;mechanistic interpretability&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://www.matthieuqueloz.com/fr/tags/interpretabilite-mecaniste/ Matthieu Queloz - interprétabilité mécaniste] &lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Mechanistic_interpretability Wikipedia - mechanistic interpretability]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119218</id>
		<title>Interprétabilité mécaniste</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119218"/>
		<updated>2026-03-31T19:01:09Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Sous-domaine de recherche au sein de l&#039;[[interprétabilité]] de l&#039;IA qui vise à comprendre le fonctionnement interne des [[réseaux neuronaux]] en analysant les mécanismes présents dans leurs calculs. &lt;br /&gt;
 &lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette approche cherche à analyser les [[réseaux neuronaux]] de la même manière que l&#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;interprétabilité mécaniste&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;mechanistic interpretability&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://www.matthieuqueloz.com/fr/tags/interpretabilite-mecaniste/ Matthieu Queloz - interprétabilité mécaniste] &lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Mechanistic_interpretability - Wikipedia mechanistic interpretability]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mechanistic_interpretability&amp;diff=119217</id>
		<title>Mechanistic interpretability</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mechanistic_interpretability&amp;diff=119217"/>
		<updated>2026-03-31T19:00:30Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Mechanistic interpretability vers Interprétabilité mécaniste&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Interprétabilité mécaniste]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119216</id>
		<title>Interprétabilité mécaniste</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119216"/>
		<updated>2026-03-31T19:00:29Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Mechanistic interpretability vers Interprétabilité mécaniste&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Sous-domaine de recherche au sein de l&#039;[[interprétabilité]] de l&#039;IA qui vise à comprendre le fonctionnement interne des [[réseaux neuronaux]] en analysant les mécanismes présents dans leurs calculs. &lt;br /&gt;
 &lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette approche cherche à analyser les [[réseaux neuronaux]] de la même manière que l&#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonction.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;interprétabilité mécaniste&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;mechanistic interpretability&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://www.matthieuqueloz.com/fr/tags/interpretabilite-mecaniste/ Matthieu Queloz - interprétabilité mécaniste] &lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Mechanistic_interpretability - Wikipedia mechanistic interpretability]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119215</id>
		<title>Interprétabilité mécaniste</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Interpr%C3%A9tabilit%C3%A9_m%C3%A9caniste&amp;diff=119215"/>
		<updated>2026-03-31T19:00:19Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Page créée avec « ==Définition== Sous-domaine de recherche au sein de l&amp;#039;interprétabilité de l&amp;#039;IA qui vise à comprendre le fonctionnement interne des réseaux neuronaux en analysant les mécanismes présents dans leurs calculs.    == Compléments == Cette approche cherche à analyser les réseaux neuronaux de la même manière que l&amp;#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonction.  ==Français== &amp;#039;&amp;#039;&amp;#039;interpré... »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Sous-domaine de recherche au sein de l&#039;[[interprétabilité]] de l&#039;IA qui vise à comprendre le fonctionnement interne des [[réseaux neuronaux]] en analysant les mécanismes présents dans leurs calculs. &lt;br /&gt;
 &lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette approche cherche à analyser les [[réseaux neuronaux]] de la même manière que l&#039;on procède à la rétro-ingénierie des programmes informatiques compilés pour en comprendre le fonction.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;interprétabilité mécaniste&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;mechanistic interpretability&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://www.matthieuqueloz.com/fr/tags/interpretabilite-mecaniste/ Matthieu Queloz - interprétabilité mécaniste] &lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Mechanistic_interpretability - Wikipedia mechanistic interpretability]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119214</id>
		<title>Sondage d&#039;un grand modèle de langue</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119214"/>
		<updated>2026-03-31T18:51:16Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Technique utilisée en [[interprétabilité]] de l&#039;[[IA]] pour analyser les états cachés (latents) des [[Grand modèle de langues (GML)|grands modèles de langues]] ([[Grand modèle de langues (GML)|GML]]). &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
L&#039;objectif est de comprendre comment ces modèles encodent les connaissances linguistiques, sémantiques et factuelles. &lt;br /&gt;
&lt;br /&gt;
Cette méthode consiste à entraîner de petits [[Adaptation par modèle auxiliaire|modèles auxiliaires]] ou [[Classificateur|classificateurs]] légers nommés &#039;&#039;sondes&#039;&#039; sur les [[activation|vecteurs d&#039;activation]] du modèle afin de prédire des caractéristiques spécifiques (par exemple, la syntaxe ou la logique).&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;sondage d&#039;un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;sondage d&#039;un GML&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;sonder un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;sonder un GML&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;LLM probing&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://hal.science/hal-04912112v1 Ballier et al. (2024) - sonder]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2502.00817 Lin et al. (2025) - LLM probing]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119213</id>
		<title>Sondage d&#039;un grand modèle de langue</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119213"/>
		<updated>2026-03-31T18:50:04Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Technique utilisée en [[interprétabilité]] de l&#039;[[IA]] pour analyser les états cachés (latents) des [[Grand modèle de langues (GML)|grands modèles de langues]] ([[Grand modèle de langues (GML)|GML]]). &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
L&#039;objectif est de comprendre comment ces modèles encodent les connaissances linguistiques, sémantiques et factuelles. &lt;br /&gt;
&lt;br /&gt;
Cette méthode consiste à entraîner de petits [[Adaptation par modèle auxiliaire|modèles auxiliaires]] ou [[Classificateur|classificateurs]] légers nommés &#039;&#039;sondes&#039;&#039; sur les [[activation|vecteurs d&#039;activation]] du modèle afin de prédire des caractéristiques spécifiques (par exemple, la syntaxe ou la logique).&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;sondage d&#039;un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;sonder un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;LLM probing&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://hal.science/hal-04912112v1 Ballier et al. (2024) - sonder]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2502.00817 Lin et al. (2025) - LLM probing]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Llm_probing&amp;diff=119209</id>
		<title>Llm probing</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Llm_probing&amp;diff=119209"/>
		<updated>2026-03-31T18:44:10Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Llm probing vers Sondage d&amp;#039;un grand modèle de langue&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Sondage d&#039;un grand modèle de langue]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119208</id>
		<title>Sondage d&#039;un grand modèle de langue</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119208"/>
		<updated>2026-03-31T18:44:10Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Llm probing vers Sondage d&amp;#039;un grand modèle de langue&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Technique utilisée en [[interprétabilité]] de l&#039;[[IA]] pour analyser les états cachés (latents) des [[Grand modèle de langues (GML)|grands modèles de langues]] ([[Grand modèle de langues (GML)|GML]]). &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
L&#039;objectif est de comprendre comment ces modèles encodent les connaissances linguistiques, sémantiques et factuelles. &lt;br /&gt;
&lt;br /&gt;
Cette méthode consiste à entraîner de petits [[Adaptation par modèle auxiliaire|modèles auxiliaires]] ou [[Classificateur|classificateurs]] légers nommés &#039;&#039;sondes&#039;&#039; sur les vecteurs d&#039;activation du modèle afin de prédire des caractéristiques spécifiques (par exemple, la syntaxe ou la logique).&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;sondage d&#039;un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;sonder un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;LLM probing&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://hal.science/hal-04912112v1 Ballier et al. (2024) - sonder]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2502.00817 Lin et al. (2025) - LLM probing]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119207</id>
		<title>Sondage d&#039;un grand modèle de langue</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Sondage_d%27un_grand_mod%C3%A8le_de_langue&amp;diff=119207"/>
		<updated>2026-03-31T18:43:22Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Page créée avec « ==Définition== Technique utilisée en interprétabilité de l&amp;#039;IA pour analyser les états cachés (latents) des grands modèles de langues (GML).   == Compléments == L&amp;#039;objectif est de comprendre comment ces modèles encodent les connaissances linguistiques, sémantiques et factuelles.   Cette méthode consiste à entraîner de petits Adaptation par modèle auxiliaire|modèles auxili... »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Technique utilisée en [[interprétabilité]] de l&#039;[[IA]] pour analyser les états cachés (latents) des [[Grand modèle de langues (GML)|grands modèles de langues]] ([[Grand modèle de langues (GML)|GML]]). &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
L&#039;objectif est de comprendre comment ces modèles encodent les connaissances linguistiques, sémantiques et factuelles. &lt;br /&gt;
&lt;br /&gt;
Cette méthode consiste à entraîner de petits [[Adaptation par modèle auxiliaire|modèles auxiliaires]] ou [[Classificateur|classificateurs]] légers nommés &#039;&#039;sondes&#039;&#039; sur les vecteurs d&#039;activation du modèle afin de prédire des caractéristiques spécifiques (par exemple, la syntaxe ou la logique).&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;sondage d&#039;un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;sonder un grand modèle de langue&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;LLM probing&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://hal.science/hal-04912112v1 Ballier et al. (2024) - sonder]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2502.00817 Lin et al. (2025) - LLM probing]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119138</id>
		<title>Taux d&#039;erreur en mots</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119138"/>
		<updated>2026-03-24T19:26:09Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Indicateur qui permet de mesurer les performances d&#039;un système de &#039;&#039;&#039;[[Reconnaissance automatique de la parole|reconnaissance vocale]]&#039;&#039;&#039; ou de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039;, de comparer différents systèmes et d&#039;évaluer les améliorations apportées à un même système.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Il ne fournit aucune précision sur la nature des erreurs.&lt;br /&gt;
&lt;br /&gt;
*&#039;&#039;&#039;Attention&#039;&#039;&#039;: À ne pas confondre avec &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;!&lt;br /&gt;
*Le taux d&#039;erreur sur les mots est dérivé de la &#039;&#039;&#039;[[distance de Levenshtein]]&#039;&#039;&#039;, qui opère au niveau des mots (insertion, omission et substitution) plutôt qu&#039;au niveau des phonèmes. Où 0 indique que les segments de texte comparés sont exactement identiques, et 1 (ou plus) indique qu&#039;ils sont complètement différents et ne présentent aucune similitude.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur en mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur de mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;WER&#039;&#039;&#039; &#039;&#039;(de l&#039;anglais)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Word error rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; WER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;WER stands for Word Error Rate and it is a metric measuring the performance of a speech recognition or machine translation system and comparing different systems as well as for evaluating improvements within one system. It provides no details on the nature of translation errors, and it typically ranges from 0 to 1.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is erived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/tel-01258153/document Christian Gillot (2012) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://www.afcp-parole.org/doc/Archives_JEP/2008_XXVIIe_JEP_Avignon/PDF/avignon2008_pdf/JEP/008_jep_1568.pdf  Razik et al. (2008) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf  Barreaud (2004) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Taux_d%27erreur_de_mots   Source : Wikipédia]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Word_error_rate   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119137</id>
		<title>Taux d&#039;erreur en mots</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119137"/>
		<updated>2026-03-24T19:23:09Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Indicateur qui permet de mesurer les performances d&#039;un système de &#039;&#039;&#039;[[Reconnaissance automatique de la parole|reconnaissance vocale]]&#039;&#039;&#039; ou de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039;, de comparer différents systèmes et d&#039;évaluer les améliorations apportées à un même système.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Il ne fournit aucune précision sur la nature des erreurs.&lt;br /&gt;
&lt;br /&gt;
*&#039;&#039;&#039;Attention&#039;&#039;&#039;: À ne pas confondre avec &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;!&lt;br /&gt;
*Le taux d&#039;erreur sur les mots est dérivé de la &#039;&#039;&#039;[[distance de Levenshtein]]&#039;&#039;&#039;, qui opère au niveau des mots plutôt qu&#039;au niveau des phonèmes. Où 0 indique que les segments de texte comparés sont exactement identiques, et 1 (ou plus) indique qu&#039;ils sont complètement différents et ne présentent aucune similitude.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur en mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur de mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;WER&#039;&#039;&#039; &#039;&#039;(de l&#039;anglais)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Word error rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; WER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;WER stands for Word Error Rate and it is a metric measuring the performance of a speech recognition or machine translation system and comparing different systems as well as for evaluating improvements within one system. It provides no details on the nature of translation errors, and it typically ranges from 0 to 1.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is erived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/tel-01258153/document Christian Gillot (2012) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://www.afcp-parole.org/doc/Archives_JEP/2008_XXVIIe_JEP_Avignon/PDF/avignon2008_pdf/JEP/008_jep_1568.pdf  Razik et al. (2008) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf  Barreaud (2004) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Taux_d%27erreur_de_mots   Source : Wikipédia]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Word_error_rate   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119136</id>
		<title>Taux d&#039;erreur en mots</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119136"/>
		<updated>2026-03-24T19:21:47Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Indicateur qui permet de mesurer les performances d&#039;un système de &#039;&#039;&#039;[[Reconnaissance automatique de la parole|reconnaissance vocale]]&#039;&#039;&#039; ou de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039;, de comparer différents systèmes et d&#039;évaluer les améliorations apportées à un même système.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Il ne fournit aucune précision sur la nature des erreurs.&lt;br /&gt;
&lt;br /&gt;
*&#039;&#039;&#039;Attention&#039;&#039;&#039;: À ne pas confondre avec &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;!&lt;br /&gt;
*Le taux d&#039;erreur sur les mots est dérivé de la &#039;&#039;&#039;[[distance de Levenshtein]]&#039;&#039;&#039;, qui opère au niveau des mots plutôt qu&#039;au niveau des phonèmes. Où 0 indique que les segments de texte comparés sont exactement identiques, et 1 (ou plus) indique qu&#039;ils sont complètement différents et ne présentent aucune similitude&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur en mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur de mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;WER&#039;&#039;&#039; &#039;&#039;(de l&#039;anglais)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Word error rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; WER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;WER stands for Word Error Rate and it is a metric measuring the performance of a speech recognition or machine translation system and comparing different systems as well as for evaluating improvements within one system. It provides no details on the nature of translation errors, and it typically ranges from 0 to 1.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is erived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/tel-01258153/document Christian Gillot (2012) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://www.afcp-parole.org/doc/Archives_JEP/2008_XXVIIe_JEP_Avignon/PDF/avignon2008_pdf/JEP/008_jep_1568.pdf  Razik et al. (2008) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf  Barreaud (2004) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Taux_d%27erreur_de_mots   Source : Wikipédia]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Word_error_rate   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Word_error_rate&amp;diff=119135</id>
		<title>Word error rate</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Word_error_rate&amp;diff=119135"/>
		<updated>2026-03-24T19:20:48Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Word error rate vers Taux d&amp;#039;erreur en mots&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Taux d&#039;erreur en mots]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119134</id>
		<title>Taux d&#039;erreur en mots</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119134"/>
		<updated>2026-03-24T19:20:47Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Word error rate vers Taux d&amp;#039;erreur en mots&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Indicateur qui permet de mesurer les performances d&#039;un système de &#039;&#039;&#039;[[Reconnaissance automatique de la parole|reconnaissance vocale]]&#039;&#039;&#039; ou de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039;, de comparer différents systèmes et d&#039;évaluer les améliorations apportées à un même système.&lt;br /&gt;
&lt;br /&gt;
Il ne fournit aucune précision sur la nature des erreurs.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
*&#039;&#039;&#039;Attention&#039;&#039;&#039;: À ne pas confondre avec &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;!&lt;br /&gt;
*Le taux d&#039;erreur sur les mots est dérivé de la &#039;&#039;&#039;[[distance de Levenshtein]]&#039;&#039;&#039;, qui opère au niveau des mots plutôt qu&#039;au niveau des phonèmes. Où 0 indique que les segments de texte comparés sont exactement identiques, et 1 (ou plus) indique qu&#039;ils sont complètement différents et ne présentent aucune similitude&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur en mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur de mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;WER&#039;&#039;&#039; &#039;&#039;(de l&#039;anglais)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Word error rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; WER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;WER stands for Word Error Rate and it is a metric measuring the performance of a speech recognition or machine translation system and comparing different systems as well as for evaluating improvements within one system. It provides no details on the nature of translation errors, and it typically ranges from 0 to 1.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is erived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/tel-01258153/document Christian Gillot (2012) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://www.afcp-parole.org/doc/Archives_JEP/2008_XXVIIe_JEP_Avignon/PDF/avignon2008_pdf/JEP/008_jep_1568.pdf  Razik et al. (2008) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf  Barreaud (2004) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Taux_d%27erreur_de_mots   Source : Wikipédia]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Word_error_rate   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119133</id>
		<title>Taux d&#039;erreur en mots</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119133"/>
		<updated>2026-03-24T19:20:34Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Indicateur qui permet de mesurer les performances d&#039;un système de &#039;&#039;&#039;[[Reconnaissance automatique de la parole|reconnaissance vocale]]&#039;&#039;&#039; ou de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039;, de comparer différents systèmes et d&#039;évaluer les améliorations apportées à un même système.&lt;br /&gt;
&lt;br /&gt;
Il ne fournit aucune précision sur la nature des erreurs.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
*&#039;&#039;&#039;Attention&#039;&#039;&#039;: À ne pas confondre avec &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;!&lt;br /&gt;
*Le taux d&#039;erreur sur les mots est dérivé de la &#039;&#039;&#039;[[distance de Levenshtein]]&#039;&#039;&#039;, qui opère au niveau des mots plutôt qu&#039;au niveau des phonèmes. Où 0 indique que les segments de texte comparés sont exactement identiques, et 1 (ou plus) indique qu&#039;ils sont complètement différents et ne présentent aucune similitude&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur en mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur de mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;WER&#039;&#039;&#039; &#039;&#039;(de l&#039;anglais)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Word error rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; WER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;WER stands for Word Error Rate and it is a metric measuring the performance of a speech recognition or machine translation system and comparing different systems as well as for evaluating improvements within one system. It provides no details on the nature of translation errors, and it typically ranges from 0 to 1.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is erived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/tel-01258153/document Christian Gillot (2012) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://www.afcp-parole.org/doc/Archives_JEP/2008_XXVIIe_JEP_Avignon/PDF/avignon2008_pdf/JEP/008_jep_1568.pdf  Razik et al. (2008) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf  Barreaud (2004) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Taux_d%27erreur_de_mots   Source : Wikipédia]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Word_error_rate   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119132</id>
		<title>Taux d&#039;erreur en mots</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119132"/>
		<updated>2026-03-24T19:20:04Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Indicateur qui permet de mesurer les performances d&#039;un système de &#039;&#039;&#039;[[Reconnaissance automatique de la parole|reconnaissance vocale]]&#039;&#039;&#039; ou de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039;, de comparer différents systèmes et d&#039;évaluer les améliorations apportées à un même système.&lt;br /&gt;
&lt;br /&gt;
Il ne fournit aucune précision sur la nature des erreurs.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
*&#039;&#039;&#039;Attention&#039;&#039;&#039;: À ne pas confondre avec &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;!&lt;br /&gt;
*Le taux d&#039;erreur sur les mots est dérivé de la &#039;&#039;&#039;[[distance de Levenshtein]]&#039;&#039;&#039;, qui opère au niveau des mots plutôt qu&#039;au niveau des phonèmes. Où 0 indique que les segments de texte comparés sont exactement identiques, et 1 (ou plus) indique qu&#039;ils sont complètement différents et ne présentent aucune similitude&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur en mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur de mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;WER&#039;&#039;&#039; (de l&#039;anglais)&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Word error rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; WER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;WER stands for Word Error Rate and it is a metric measuring the performance of a speech recognition or machine translation system and comparing different systems as well as for evaluating improvements within one system. It provides no details on the nature of translation errors, and it typically ranges from 0 to 1.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is erived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/tel-01258153/document Christian Gillot (2012) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://www.afcp-parole.org/doc/Archives_JEP/2008_XXVIIe_JEP_Avignon/PDF/avignon2008_pdf/JEP/008_jep_1568.pdf  Razik et al. (2008) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf  Barreaud (2004) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Taux_d%27erreur_de_mots   Source : Wikipédia]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Word_error_rate   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119130</id>
		<title>IA physique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119130"/>
		<updated>2026-03-24T19:09:45Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Système d&#039;intelligence artificielle]]&#039;&#039;&#039; qui traite des informations provenant de différents capteurs physiques et de modèles d&#039;IA, qui prend des décisions autonomes, et qui interagit directement avec le monde physique via des actionneurs. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Les systèmes d&#039;IA physique sont utilisés dans les robots, les voitures autonomes, etc. &lt;br /&gt;
&lt;br /&gt;
*Attention: Il ne faut pas confondre l&#039;IA physique avec l&#039;[[intelligence artificielle numérique|IA numérique]].&lt;br /&gt;
*Il existe deux sous-types d&#039;IA physique: L&#039;&#039;&#039;&#039;[[Integrated physical AI|IA physique intégrée]]&#039;&#039;&#039; et l&#039;&#039;&#039;&#039;[[Distributed physical AI|IA physique distribuée]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; IA physique &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle physique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IAP&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Physical artificial intelligence&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Artificial intelligence systems that not only process information and make decisions in the digital space but also interact directly with the physical world and they use sensors to perceive their environment, model dynamic states of the real world, make autonomous decisions on how to act, and implement these decisions using actuators. The aim is to achieve continuous adaptation and learning ability under conditions of uncertainty, limited perception, and physical laws.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://www.hpe.com/ca/fr/what-is/physical-ai.html  Hewlett Packard Enterprise (2026) - IA physique]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/2511.09497   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.nvidia.com/en-us/glossary/generative-physical-ai/  Source : nvidia]&lt;br /&gt;
&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119129</id>
		<title>IA physique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119129"/>
		<updated>2026-03-24T19:06:35Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Système d&#039;intelligence artificielle]]&#039;&#039;&#039; qui traite des informations provenant de différents capteurs physiques et de modèles d&#039;IA, qui prend des décisions autonomes, et qui interagit directement avec le monde physique via des actionneurs. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Les systèmes d&#039;IA physique sont utilisés dans les robots, les voitures autonomes, etc. &lt;br /&gt;
&lt;br /&gt;
*Attention: Il ne faut pas confondre l&#039;IA physique avec l&#039;[[intelligence artificielle numérique|IA numérique]].&lt;br /&gt;
*Il existe deux sous-types d&#039;IA physique: L&#039;&#039;&#039;&#039;[[Integrated physical AI|IA physique intégrée]]&#039;&#039;&#039; et l&#039;&#039;&#039;&#039;[[Distributed physical AI|IA physique distribuée]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; IA physique &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle physique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IAP&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Physical artificial intelligence&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Artificial intelligence systems that not only process information and make decisions in the digital space but also interact directly with the physical world and they use sensors to perceive their environment, model dynamic states of the real world, make autonomous decisions on how to act, and implement these decisions using actuators. The aim is to achieve continuous adaptation and learning ability under conditions of uncertainty, limited perception, and physical laws.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/pdf/2511.09497   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.nvidia.com/en-us/glossary/generative-physical-ai/  Source : nvidia]&lt;br /&gt;
&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Digital_AI&amp;diff=119128</id>
		<title>Digital AI</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Digital_AI&amp;diff=119128"/>
		<updated>2026-03-24T19:05:39Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Digital AI vers Intelligence artificielle numérique&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Intelligence artificielle numérique]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Intelligence_artificielle_num%C3%A9rique&amp;diff=119127</id>
		<title>Intelligence artificielle numérique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Intelligence_artificielle_num%C3%A9rique&amp;diff=119127"/>
		<updated>2026-03-24T19:05:38Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Digital AI vers Intelligence artificielle numérique&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Intelligence artificielle|Intelligence artificielle (IA)]]&#039;&#039;&#039; purement logicielle qui agit sur des données, des composantes numériques ou logicielles.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[physical AI]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle numérique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle cybernétique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Digital AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; DIAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It refers to data-driven AI and data processing that is popular today, most DIAI applications are limited to specific tasks, often functions as a poorly explained “black box”.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Source ==&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Intelligence_artificielle_num%C3%A9rique&amp;diff=119126</id>
		<title>Intelligence artificielle numérique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Intelligence_artificielle_num%C3%A9rique&amp;diff=119126"/>
		<updated>2026-03-24T19:05:26Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Intelligence artificielle|Intelligence artificielle (IA)]]&#039;&#039;&#039; purement logicielle qui agit sur des données, des composantes numériques ou logicielles.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[physical AI]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle numérique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle cybernétique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Digital AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; DIAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It refers to data-driven AI and data processing that is popular today, most DIAI applications are limited to specific tasks, often functions as a poorly explained “black box”.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Source ==&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Physical_AI&amp;diff=119125</id>
		<title>Physical AI</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Physical_AI&amp;diff=119125"/>
		<updated>2026-03-24T19:02:08Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Physical AI vers IA physique&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[IA physique]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119124</id>
		<title>IA physique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119124"/>
		<updated>2026-03-24T19:02:08Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : Patrickdrouin a déplacé la page Physical AI vers IA physique&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Système d&#039;intelligence artificielle]]&#039;&#039;&#039; qui traite des informations provenant de différents capteurs physiques et de modèles d&#039;IA, qui prend des décisions autonomes, et qui interagit directement avec le monde physique via des actionneurs. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Les systèmes d&#039;IA physique sont utilisés dans les robots, les voitures autonomes, etc. &lt;br /&gt;
&lt;br /&gt;
*Attention: Il ne faut pas confondre l&#039;IA physique avec l&#039;&#039;&#039;&#039;[[Digital AI|IA numérique]]&#039;&#039;&#039;.&lt;br /&gt;
*Il existe deux sous-types d&#039;IA physique: L&#039;&#039;&#039;&#039;[[Integrated physical AI|IA physique intégrée]]&#039;&#039;&#039; et l&#039;&#039;&#039;&#039;[[Distributed physical AI|IA physique distribuée]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; IA physique &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle physique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IAP&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Physical artificial intelligence&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Artificial intelligence systems that not only process information and make decisions in the digital space but also interact directly with the physical world and they use sensors to perceive their environment, model dynamic states of the real world, make autonomous decisions on how to act, and implement these decisions using actuators. The aim is to achieve continuous adaptation and learning ability under conditions of uncertainty, limited perception, and physical laws.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/pdf/2511.09497   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.nvidia.com/en-us/glossary/generative-physical-ai/  Source : nvidia]&lt;br /&gt;
&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119123</id>
		<title>IA physique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119123"/>
		<updated>2026-03-24T19:01:51Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Système d&#039;intelligence artificielle]]&#039;&#039;&#039; qui traite des informations provenant de différents capteurs physiques et de modèles d&#039;IA, qui prend des décisions autonomes, et qui interagit directement avec le monde physique via des actionneurs. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Les systèmes d&#039;IA physique sont utilisés dans les robots, les voitures autonomes, etc. &lt;br /&gt;
&lt;br /&gt;
*Attention: Il ne faut pas confondre l&#039;IA physique avec l&#039;&#039;&#039;&#039;[[Digital AI|IA numérique]]&#039;&#039;&#039;.&lt;br /&gt;
*Il existe deux sous-types d&#039;IA physique: L&#039;&#039;&#039;&#039;[[Integrated physical AI|IA physique intégrée]]&#039;&#039;&#039; et l&#039;&#039;&#039;&#039;[[Distributed physical AI|IA physique distribuée]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; IA physique &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle physique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IAP&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Physical artificial intelligence&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Artificial intelligence systems that not only process information and make decisions in the digital space but also interact directly with the physical world and they use sensors to perceive their environment, model dynamic states of the real world, make autonomous decisions on how to act, and implement these decisions using actuators. The aim is to achieve continuous adaptation and learning ability under conditions of uncertainty, limited perception, and physical laws.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/pdf/2511.09497   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.nvidia.com/en-us/glossary/generative-physical-ai/  Source : nvidia]&lt;br /&gt;
&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119122</id>
		<title>IA physique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119122"/>
		<updated>2026-03-24T18:59:45Z</updated>

		<summary type="html">&lt;p&gt;Patrickdrouin : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==en construction==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Système d&#039;intelligence artificielle]]&#039;&#039;&#039; qui traite des informations provenant de différents capteurs physiques et de modèles d&#039;IA, qui prend des décisions autonomes, et qui interagit directement avec le monde physique via des actionneurs. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Les systèmes d&#039;IA physique sont utilisés dans les robots, les voitures autonomes, etc. &lt;br /&gt;
&lt;br /&gt;
*Attention: Il ne faut pas confondre l&#039;IA physique avec l&#039;&#039;&#039;&#039;[[Digital AI|IA numérique]]&#039;&#039;&#039;.&lt;br /&gt;
*Il existe deux sous-types d&#039;IA physique: L&#039;&#039;&#039;&#039;[[Integrated physical AI|IA physique intégrée]]&#039;&#039;&#039; et l&#039;&#039;&#039;&#039;[[Distributed physical AI|IA physique distribuée]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; IA physique &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle physique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IAP&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Physical artificial intelligence&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Artificial intelligence systems that not only process information and make decisions in the digital space but also interact directly with the physical world and they use sensors to perceive their environment, model dynamic states of the real world, make autonomous decisions on how to act, and implement these decisions using actuators. The aim is to achieve continuous adaptation and learning ability under conditions of uncertainty, limited perception, and physical laws.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/pdf/2511.09497   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.nvidia.com/en-us/glossary/generative-physical-ai/  Source : nvidia]&lt;br /&gt;
&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Patrickdrouin</name></author>
	</entry>
</feed>