<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
	<id>https://datafranca.org/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Arianne</id>
	<title>DataFranca - Contributions [fr]</title>
	<link rel="self" type="application/atom+xml" href="https://datafranca.org/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Arianne"/>
	<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/Sp%C3%A9cial:Contributions/Arianne"/>
	<updated>2026-04-16T17:57:18Z</updated>
	<subtitle>Contributions</subtitle>
	<generator>MediaWiki 1.39.5</generator>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Integrated_physical_AI&amp;diff=119324</id>
		<title>Integrated physical AI</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Integrated_physical_AI&amp;diff=119324"/>
		<updated>2026-04-02T21:55:11Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Système qui imite les individus et qui intègre la perception du monde physique grâce à divers capteurs (par exemple, capteurs de matière, de température, visuels, acoustiques), l&#039;interprétation de divers indices et des réactions physiques dans le monde réel. Aujourd&#039;hui, certains &#039;&#039;&#039;[[robots]]&#039;&#039;&#039; en sont un exemple typiques.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[IA physique]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle intégrée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Integrated physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Integrated PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IPAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It refers to systems that mimic individuals and integrate the perception of the physical world through various sensors (e.g., material sensors, temperature, vision, sound), induction of various indices, and physical responses in the physical world.Robots are a typical example of IPAI.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Source ==&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Intelligence_artificielle_num%C3%A9rique&amp;diff=119323</id>
		<title>Intelligence artificielle numérique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Intelligence_artificielle_num%C3%A9rique&amp;diff=119323"/>
		<updated>2026-04-02T21:54:08Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Intelligence artificielle|Intelligence artificielle (IA)]]&#039;&#039;&#039; purement logicielle qui agit sur des données, des composantes numériques ou logicielles.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[IA physique]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; intelligence artificielle numérique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; intelligence artificielle cybernétique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; digital AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; DIAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It refers to data-driven AI and data processing that is popular today, most DIAI applications are limited to specific tasks, often functions as a poorly explained “black box”.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Source ==&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119322</id>
		<title>IA physique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119322"/>
		<updated>2026-04-02T21:53:36Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Système d&#039;intelligence artificielle]]&#039;&#039;&#039; qui traite des informations provenant de différents capteurs physiques et de modèles d&#039;IA, qui prend des décisions autonomes, et qui interagit directement avec le monde physique via des actionneurs. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Les systèmes d&#039;IA physique sont utilisés dans les robots, les voitures autonomes, etc. &lt;br /&gt;
&lt;br /&gt;
*Attention: Il ne faut pas confondre l&#039;IA physique avec l&#039;&#039;&#039;&#039;[[intelligence artificielle numérique|IA numérique]]&#039;&#039;&#039;.&lt;br /&gt;
*Il existe deux sous-types d&#039;IA physique: L&#039;&#039;&#039;&#039;[[Integrated physical AI|IA physique intégrée]]&#039;&#039;&#039; et l&#039;&#039;&#039;&#039;[[Distributed physical AI|IA physique distribuée]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; IA physique &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; intelligence artificielle physique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IAP&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; physical artificial intelligence&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Artificial intelligence systems that not only process information and make decisions in the digital space but also interact directly with the physical world and they use sensors to perceive their environment, model dynamic states of the real world, make autonomous decisions on how to act, and implement these decisions using actuators. The aim is to achieve continuous adaptation and learning ability under conditions of uncertainty, limited perception, and physical laws.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://www.hpe.com/ca/fr/what-is/physical-ai.html  Hewlett Packard Enterprise (2026) - IA physique]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/2511.09497   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.nvidia.com/en-us/glossary/generative-physical-ai/  Source : nvidia]&lt;br /&gt;
&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=NIST_(metric)&amp;diff=119321</id>
		<title>NIST (metric)</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=NIST_(metric)&amp;diff=119321"/>
		<updated>2026-04-02T21:48:56Z</updated>

		<summary type="html">&lt;p&gt;Arianne : Arianne a déplacé la page NIST (metric) vers NIST (métrique)&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[NIST (métrique)]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=NIST_(m%C3%A9trique)&amp;diff=119320</id>
		<title>NIST (métrique)</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=NIST_(m%C3%A9trique)&amp;diff=119320"/>
		<updated>2026-04-02T21:48:55Z</updated>

		<summary type="html">&lt;p&gt;Arianne : Arianne a déplacé la page NIST (metric) vers NIST (métrique)&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode d&#039;évaluation automatique de la qualité de la &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; dérivée du score &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;. Tout en calculant la similarité à l&#039;aide de la précision des &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039;, elle évalue également le degré d&#039;information fourni par un n-gramme donné.&lt;br /&gt;
&lt;br /&gt;
L&#039;idée sous-jacente est d&#039;accorder plus de crédit à un système lorsqu&#039;il obtient une correspondance de n-gramme difficile, et moins de crédit pour une correspondance de n-gramme facile.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
*Par rapport à BLEU, NIST accorde davantage d&#039;importance aux n-grammes moins fréquents ; il se distingue également de BLEU dans le calcul de la pénalité de concision, où de légères variations de la longueur de la traduction n&#039;ont pas autant d&#039;impact sur le score global.&lt;br /&gt;
*Le nom de la métrique provient du &#039;&#039;National Institute of Standards and Technology&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; NIST&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; NIST&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; National Institute of Standards and Technology&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;NIST stands for National Institute of Standards and Technology and it is an automatic evaluation of machine translation adaptation of BLEU. While it also calculates the similarity using n-grams precision, NIST also calculates how informative a particular n-gram is. The idea behind this is to give more credit if a system gets an n-gram match that is difficult, but to give less credit for an n-gram match which is easy.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Compared to BLEU, NIST gives more importance to the less frequent n-grams, also differs from BLEU in its calculation of the brevity penalty insofar as small variations in translation length do not impact the overall score as much.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/L04-1489/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/nist   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/NIST_(metric)   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Autoencodeur_de_repr%C3%A9sentations&amp;diff=119319</id>
		<title>Autoencodeur de représentations</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Autoencodeur_de_repr%C3%A9sentations&amp;diff=119319"/>
		<updated>2026-04-02T21:44:33Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Classe d&#039;&#039;&#039;&#039;[[Autoencodeur|autoencodeurs]]&#039;&#039;&#039; qui réutilisent des encodeurs de représentation dits &#039;&#039;figés&#039;&#039; et &#039;&#039;&#039;[[Préentraînement|préentraînés]]&#039;&#039;&#039; avec des décodeurs &#039;&#039;&#039;[[Entraînement|entraînés]]&#039;&#039;&#039; afin de fournir des &#039;&#039;&#039;[[Espace latent|espaces latents]]&#039;&#039;&#039; de haute fidélité et sémantiquement riche pour les &#039;&#039;&#039;[[Réseau autoattentif|réseaux autoattentifs]]&#039;&#039;&#039; de &#039;&#039;&#039;[[Modèle à bruit statistique|diffusion]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[DINO]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Autoencodeur de représentations&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Autoencodeur de représentations latentes&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Autoencodeur d&#039;espace latent&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Representation autoencoder&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;RAE&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A class of autoencoders that reuse pretrained, frozen representation encoders together with lightweight trained decoders to provide high-fidelity, semantically rich latents for diffusion transformers.&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2510.11690   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/bytetriper/RAE   Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://huggingface.co/papers/2510.11690   Source : Hugging Face]&lt;br /&gt;
&lt;br /&gt;
[https://rae-dit.github.io/   Source : RAE-dit]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119318</id>
		<title>IA physique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=IA_physique&amp;diff=119318"/>
		<updated>2026-04-02T21:43:12Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Système d&#039;intelligence artificielle]]&#039;&#039;&#039; qui traite des informations provenant de différents capteurs physiques et de modèles d&#039;IA, qui prend des décisions autonomes, et qui interagit directement avec le monde physique via des actionneurs. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Les systèmes d&#039;IA physique sont utilisés dans les robots, les voitures autonomes, etc. &lt;br /&gt;
&lt;br /&gt;
*Attention: Il ne faut pas confondre l&#039;IA physique avec l&#039;[[intelligence artificielle numérique|IA numérique]].&lt;br /&gt;
*Il existe deux sous-types d&#039;IA physique: L&#039;&#039;&#039;&#039;[[Integrated physical AI|IA physique intégrée]]&#039;&#039;&#039; et l&#039;&#039;&#039;&#039;[[Distributed physical AI|IA physique distribuée]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; IA physique &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; intelligence artificielle physique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IAP&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; physical artificial intelligence&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Artificial intelligence systems that not only process information and make decisions in the digital space but also interact directly with the physical world and they use sensors to perceive their environment, model dynamic states of the real world, make autonomous decisions on how to act, and implement these decisions using actuators. The aim is to achieve continuous adaptation and learning ability under conditions of uncertainty, limited perception, and physical laws.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://www.hpe.com/ca/fr/what-is/physical-ai.html  Hewlett Packard Enterprise (2026) - IA physique]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/2511.09497   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.nvidia.com/en-us/glossary/generative-physical-ai/  Source : nvidia]&lt;br /&gt;
&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_k_fixe&amp;diff=119153</id>
		<title>Échantillonnage à troncature k fixe</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_k_fixe&amp;diff=119153"/>
		<updated>2026-03-30T15:44:43Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&lt;br /&gt;
Stratégie d&#039;échantillonnage qui prélève un élément parmi un nombre fixe &#039;&#039;k&#039;&#039; des meilleurs éléments d&#039;un ensemble. La valeur de &#039;&#039;k&#039;&#039; reste constante, &lt;br /&gt;
&lt;br /&gt;
Ceci signifie que la méthode ne s&#039;adapte pas au contexte, ce qui a conduit à l&#039;&#039;&#039;&#039;[[échantillonnage à troncature de masse p]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette stratégie d&#039;échantillonnage est utilisée par les [[Grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un segment parmi un nombre fixe &#039;&#039;k&#039;&#039; de &#039;&#039;&#039;[[Segment textuel|segments textuels]]&#039;&#039;&#039;. La valeur de &#039;&#039;k&#039;&#039; reste constante, ce qui signifie que la méthode ne s&#039;adapte pas au contexte du texte généré. &lt;br /&gt;
&lt;br /&gt;
Une valeur &#039;&#039;k&#039;&#039; plus petite rendra le résultat plus ciblé mais moins créatif, tandis qu&#039;une valeur &#039;&#039;k&#039;&#039; plus grande rendra le résultat plus diversifié mais potentiellement moins pertinent.&lt;br /&gt;
&lt;br /&gt;
Cette limitation a conduit à l&#039;&#039;&#039;&#039;[[échantillonnage à troncature de masse p]]&#039;&#039;&#039;.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Le terme « échantillonnage à troncature &#039;&#039;k&#039;&#039; fixe » est plus exact que terme « échantillonnage des &#039;&#039;k&#039;&#039; meilleurs » car elle définit l&#039;action algorithmique (la troncature) plutôt que simplement le résultat.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Attention: À ne pas confondre avec la &#039;&#039;&#039;[[température]]&#039;&#039;&#039; d&#039;un grand modèle de langues.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage à troncature k fixe&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage parmi les k meilleurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage Top-k&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Top-k sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Sampling strategy that always samples from a fixed number of tokens, which may be too restrictive or too broad depending on the context. The value of K remains constant, meaning the method isn&#039;t adaptive to the context of the text being generated, which led to top-p sampling.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A smaller K will make the output more focused but less creative, while a larger K will make the output more diverse but potentially less relevant.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342   Source : Medium - Top-k sampling, Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling#Top-k_sampling  Wikipedia - Top-k sampling]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreurs_de_traduction&amp;diff=119152</id>
		<title>Taux d&#039;erreurs de traduction</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreurs_de_traduction&amp;diff=119152"/>
		<updated>2026-03-30T15:40:46Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Métrique d&#039;évaluation de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui calcule le nombre de modifications nécessaires pour aligner une traduction automatique sur la traduction de référence. Elle mesure les insertions, les suppressions, les substitutions et les décalages nécessaires et elle pénalise tout changement d&#039;ordre des mots, même valide.&lt;br /&gt;
&lt;br /&gt;
Elle a été conçue pour estimer l&#039;effort humain lors de la post-édition d&#039;un texte.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039; et &#039;&#039;&#039;[[Character n-gram F-score|chrF]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Un TER plus faible, proche de 0, indique qu&#039;une traduction est meilleure et qu&#039;elle nécessite moins de modifications.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;Taux d&#039;erreurs de traduction&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;TER&#039;&#039;&#039; &#039;&#039;(de l&#039;anglais)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Translation Error Rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;TER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A metric for automatic evaluation of machine translation that calculates the number of edits required to change a machine translation output into one of the references. It measures the insertions, deletions, substitutions, and shifts needed to transform a machine-generated hypothesis into reference translation. A lower TER, closer to 0, indicates a better translation with fewer edits required.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/2006.amta-papers.25/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/pratyaynotfound/TER   Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/ter   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=BLEURT&amp;diff=119112</id>
		<title>BLEURT</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=BLEURT&amp;diff=119112"/>
		<updated>2026-03-20T15:05:37Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Métrique d&#039;évaluation de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui utilise des &#039;&#039;&#039;[[Vecteur sémantique compact|vecteurs sémantiques compacts]]&#039;&#039;&#039; (comme &#039;&#039;&#039;[[BERTScore]]&#039;&#039;&#039;) et qui ajoute une étape d&#039;&#039;&#039;&#039;[[entraînement]]&#039;&#039;&#039; sur des données d&#039;évaluation humaine. Ainsi, elle permet non seulement de saisir les similitudes sémantiques non triviales entre les phrases (de référence et candidates), mais elle permet aussi au modèle de prédire le score qu&#039;un humain donnerait, capturant des nuances de fluidité et de sens que la simple distance vectorielle ne voit pas toujours.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039; et &#039;&#039;&#039;[[COMET]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;BLEURT&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Bilingual Evaluation Understudy with Representations from Transformers&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; BLEURT&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A machine translation evaluation metric that uses embeddings (such as BERTScore) and incorporates a training step using human evaluation data. Thus, it not only captures non-trivial semantic similarities between sentences (reference and candidate), but also enables the model to predict the score a human would give, capturing nuances of fluency and meaning that simple vector distance does not always capture.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/2020.acl-main.704/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/google-research/bleurt   Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://research.google/blog/evaluating-natural-language-generation-with-bleurt/   Source : Google Research Blog]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Recherche_approfondie_assist%C3%A9e_par_l%27IA_g%C3%A9n%C3%A9rative&amp;diff=119087</id>
		<title>Recherche approfondie assistée par l&#039;IA générative</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Recherche_approfondie_assist%C3%A9e_par_l%27IA_g%C3%A9n%C3%A9rative&amp;diff=119087"/>
		<updated>2026-03-19T20:24:11Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode de [[recherche d&#039;informations]] utilisant un [[agent]] basé sur l&#039;[[IA générative]] qui fait une combinaison de [[Recherche d&#039;informations|recherches d&#039;informations]] traditionnelles et de [[Recherche assistée par l&#039;IA générative|recherches assistées par l&#039;IA générative]] avant de produire une synthèse sous la forme d&#039;un rapport de recherche structuré.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La réponse typique est un rapport cohérent et détaillé, et à la fin, elle contient également de nouvelles idées et les sources utilisées pour la synthèse. La recherche approfondie prend plus de temps que la &#039;&#039;&#039;[[Recherche assistée par l&#039;IA générative]]&#039;&#039;&#039; et doit être utilisée lorsque l&#039;utilisateur a besoin d&#039;une analyse plus poussée sur un sujet complexe.&lt;br /&gt;
&lt;br /&gt;
La technique repose sur un ensemble de [[requête générative|requêtes génératives]] spécialisées.&lt;br /&gt;
&lt;br /&gt;
À ne pas confondre avec &#039;&#039;&#039;[[recherche assistée par l&#039;IA générative]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; recherche approfondie assistée par l&#039;IA générative&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche approfondie&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche documentaire approfondie assistée par l&#039;IA générative&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche documentaire approfondie&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; deep research&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;AI-enhanced way of searching and synthesizing relevant information by taking the time to read it. The typical output is a coherent report or detailed answer, and at the end, it also contains new ideas. Deep research is more time consuming than deep search and it is to use when the user needs a thorough analysis on a complex topic.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://leehanchung.github.io/blogs/2025/02/26/deep-research/   Source : GitHub.io]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@themeynoush/deep-search-vs-deep-research-what-are-they-and-how-do-they-compare-ac24db023002   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Recherche_assist%C3%A9e_par_l%27IA_g%C3%A9n%C3%A9rative&amp;diff=119086</id>
		<title>Recherche assistée par l&#039;IA générative</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Recherche_assist%C3%A9e_par_l%27IA_g%C3%A9n%C3%A9rative&amp;diff=119086"/>
		<updated>2026-03-19T20:23:56Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode de [[recherche d&#039;informations]] assistée par l&#039;[[IA générative]], plus particulièrement un [[grand modèle de langues]] couplé à des techniques d&#039;enrichissement de requêtes de type [[génération augmentée d&#039;information applicative (GAIA)]] qui tente déterminer le sens de la question (ou &#039;&#039;&#039;[[requête générative|requête]]&#039;&#039;&#039;) afin d&#039;effectuer une recherche élargie sur le Web en trouvant les résultats les plus pertinents. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La réponse obtenue est généralement concise, elle contient suffisamment d&#039;informations (comme des liens) pour guider l&#039;utilisateur et elle ne prend que quelques secondes à être générée. La recherche profonde est utile lorsque l&#039;utilisateur a besoin de recueillir des informations, mais qu&#039;il prévoit de les examiner lui-même par la suite.&lt;br /&gt;
&lt;br /&gt;
À ne pas confondre avec &#039;&#039;&#039;[[recherche approfondie assistée par l&#039;IA générative]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; recherche assistée par l&#039;IA générative&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche profonde&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; deep search&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; deep searching&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;An AI-enhanced way of searching for information and that tries to grasp the meaning of the question to scour the web deeply to find the most relevant results. The typical output is brief and contains enough information (like links) to guide the user and takes a few seconds to be generated. Deep search is to use when the user needs to gather information but plan to review it himself.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/@themeynoush/deep-search-vs-deep-research-what-are-they-and-how-do-they-compare-ac24db023002   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[https://www.linkedin.com/pulse/deep-search-ai-practical-guide-ashutosh-kumar-6f5dc/   Source : Publication LinkedIn]&lt;br /&gt;
&lt;br /&gt;
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&amp;amp;i=1&amp;amp;srchtxt=deep+search&amp;amp;index=alt&amp;amp;codom2nd_wet=1#resultrecs   Source : TERMIUM Plus]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Recherche_approfondie_assist%C3%A9e_par_l%27IA_g%C3%A9n%C3%A9rative&amp;diff=119085</id>
		<title>Recherche approfondie assistée par l&#039;IA générative</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Recherche_approfondie_assist%C3%A9e_par_l%27IA_g%C3%A9n%C3%A9rative&amp;diff=119085"/>
		<updated>2026-03-19T20:22:43Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode de [[recherche d&#039;informations]] utilisant un [[agent]] basé sur l&#039;[[IA générative]] qui fait une combinaison de [[Recherche d&#039;informations|recherches d&#039;informations]] traditionnelles et de [[Recherche assistée par l&#039;IA générative|recherches assistées par l&#039;IA générative]] avant de produire une synthèse sous la forme d&#039;un rapport de recherche structuré.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La réponse typique est un rapport cohérent et détaillé, et à la fin, elle contient également de nouvelles idées et les sources utilisées pour la synthèse. La recherche approfondie prend plus de temps que la &#039;&#039;&#039;[[Recherche assistée par l&#039;IA générative]]&#039;&#039;&#039; et doit être utilisée lorsque l&#039;utilisateur a besoin d&#039;une analyse plus poussée sur un sujet complexe.&lt;br /&gt;
&lt;br /&gt;
La technique repose sur un ensemble de [[requête générative|requêtes génératives]] spécialisées.&lt;br /&gt;
&lt;br /&gt;
À ne pas confondre avec &#039;&#039;&#039;[[Recherche assistée par l&#039;IA générative]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; recherche approfondie assistée par l&#039;IA générative&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche approfondie&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche documentaire approfondie assistée par l&#039;IA générative&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche documentaire approfondie&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; deep research&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;AI-enhanced way of searching and synthesizing relevant information by taking the time to read it. The typical output is a coherent report or detailed answer, and at the end, it also contains new ideas. Deep research is more time consuming than deep search and it is to use when the user needs a thorough analysis on a complex topic.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://leehanchung.github.io/blogs/2025/02/26/deep-research/   Source : GitHub.io]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@themeynoush/deep-search-vs-deep-research-what-are-they-and-how-do-they-compare-ac24db023002   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=119084</id>
		<title>Adaptation au locuteur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=119084"/>
		<updated>2026-03-19T20:20:42Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Processus derrière le &#039;&#039;&#039;[[clonage vocal]]&#039;&#039;&#039; qui aide à gérer les difficultés liées à la variabilité de la parole résultant de différents styles d&#039;élocution, d&#039;accents et de conditions acoustiques. Ce processus &#039;&#039;&#039;[[Peaufinage|peaufine]]&#039;&#039;&#039; un &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039; de &#039;&#039;&#039;[[Synthèse de la parole|synthèse vocale]]&#039;&#039;&#039; afin de reproduire la voix d&#039;un utilisateur spécifique à partir d&#039;une quantité de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; limitées. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[clonage vocal en quelques coups]]&#039;&#039;&#039; et &#039;&#039;&#039;[[clonage vocal zéro-coup]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; adaptation au locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; adaptation du locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; adaptation à l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; adaptation de l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;speaker adaptation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Process behind voice cloning that helps to handle speech variability difficulties from different speaking styles, accents, and acoustic conditions. This process fine-tunes a text-to-speech model to replicate a specific user’s voice using this limited data. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://www.isca-archive.org/jep_2022/wadoux22_jep.pdf Conférence JEP2002 - Adaptation au locuteur]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/2505.00579   Arxiv - Speaker Adaptation]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Clonage_vocal_z%C3%A9ro-coup&amp;diff=119083</id>
		<title>Clonage vocal zéro-coup</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Clonage_vocal_z%C3%A9ro-coup&amp;diff=119083"/>
		<updated>2026-03-19T20:19:53Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique de &#039;&#039;&#039;[[clonage vocal]]&#039;&#039;&#039; qui ne nécessite pas un &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039;. Elle requiert l&#039;intégration de modules spécialisés, tels qu&#039;un encodeur vocal, afin de capturer et de reproduire la voix du locuteur cible pendant l&#039;&#039;&#039;&#039;[[inférence]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[clonage vocal en quelques coups]]&#039;&#039;&#039;, &#039;&#039;&#039;[[adaptation au locuteur]]&#039;&#039;&#039; et &#039;&#039;&#039;[[synthèse de la parole]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; clonage vocal zéro-coup&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; clonage vocal zéro coup&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; clonage vocal zéro exemple&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; clonage vocal avec zéro exemple&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; clonage vocal à zéro exemple&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; clonage vocal sans exemple&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; zero-shot voice cloning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; zero-shot TTS&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; ZS-TTS&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A voice cloning technique that needs not to fine tuned the model. It requires the inclusion of specialized modules, such as speaker encoder to capture and replicate the target speaker’s voice during inference.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/pdf/2505.00579   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://speechify.com/fr/blog/zero-shot-voice-cloning/   Source : Speechify]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Clonage_vocal_en_quelques_coups&amp;diff=119082</id>
		<title>Clonage vocal en quelques coups</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Clonage_vocal_en_quelques_coups&amp;diff=119082"/>
		<updated>2026-03-19T20:18:07Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique de &#039;&#039;&#039;[[clonage vocal]]&#039;&#039;&#039; qui se concentre sur l&#039;&#039;&#039;&#039;[[adaptation au locuteur]]&#039;&#039;&#039; (&#039;&#039;speaker adaptation&#039;&#039;) grâce à un &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; avec un minimum de &#039;&#039;&#039;[[données]]&#039;&#039;&#039;. L&#039;audio de référence peut être de quelques secondes à cinq minutes maximum. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[clonage vocal]]&#039;&#039;&#039;, &#039;&#039;&#039;[[synthèse de la parole]]&#039;&#039;&#039; et  &#039;&#039;&#039;[[clonage vocal zéro-coup]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; clonage vocal en quelques coups&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; clonage vocal avec peu d&#039;exemples&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; clonage vocal avec quelques coups&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; clonage vocal à partir de peu d&#039;exemples&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; clonage à multiples coups&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; few-Shot voice cloning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; few-shot TTS&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; FS-TTS&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A voice cloning technique that focuses on speaker adaptation through fine tuning with minimal data. The reference audio can range from a few seconds to a maximum of five minutes.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/pdf/2505.00579   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2203.09708   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Approche_par_l%27%C3%A9quipe_rouge_automatique&amp;diff=119081</id>
		<title>Approche par l&#039;équipe rouge automatique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Approche_par_l%27%C3%A9quipe_rouge_automatique&amp;diff=119081"/>
		<updated>2026-03-19T20:13:16Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthodes d&#039;&#039;&#039;&#039;[[approche par l&#039;équipe rouge]]&#039;&#039;&#039; qui consistent à utiliser des &#039;&#039;&#039;[[Modèle|modèles]]&#039;&#039;&#039; d&#039;&#039;&#039;&#039;[[IA générative]]&#039;&#039;&#039; pour attaquer le système cible, comme un &#039;&#039;&#039;[[robot conversationnel]]&#039;&#039;&#039; d&#039;un &#039;&#039;&#039;[[grand modèle de langues]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Elles visent à générer un grand nombre d&#039;exemples où une &#039;&#039;&#039;[[intelligence artificielle]]&#039;&#039;&#039; se comporte de manière incorrecte, souvent en mettant l&#039;accent sur des questions liées à la sécurité. Cependant, ces méthodes ont généralement du mal à générer des attaques à la fois variées et efficaces.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[attaque adverse]]&#039;&#039;&#039;, &#039;&#039;&#039;[[débridage]]&#039;&#039;&#039; et &#039;&#039;&#039;[[infiltration de requête]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; approche par l&#039;équipe rouge automatique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; automatic red-teaming&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; automated red-teaming&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; automated red teaming&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Red-teaming methods that involve using generative artificial intelligence models to attack the target system, such as a large language model chatbot. It aims to generate a large number of examples where an AI behaves incorrectly, often with a particular focus on safety related issues. However, these methods typically struggles to generate attacks that are both diverse and effective.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2508.04451   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/   Source : Open AI]&lt;br /&gt;
&lt;br /&gt;
[https://cdn.openai.com/papers/diverse-and-effective-red-teaming.pdf   Source : Open AI paper]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Apprentissage_par_curriculum_auto-%C3%A9volutif&amp;diff=119080</id>
		<title>Apprentissage par curriculum auto-évolutif</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Apprentissage_par_curriculum_auto-%C3%A9volutif&amp;diff=119080"/>
		<updated>2026-03-19T20:11:48Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode d&#039;&#039;&#039;&#039;[[apprentissage par curriculum]]&#039;&#039;&#039; automatique adaptée au &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; de l&#039;&#039;&#039;&#039;[[apprentissage par renforcement]]&#039;&#039;&#039; des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039;. Elle ajuste dynamiquement le curriculum d&#039;entraînement en fonction des capacités actuelles du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039; à l&#039;aide de techniques telles que la sélection du &#039;&#039;&#039;[[Problème du bandit manchot|bandit manchot]]&#039;&#039;&#039; et l&#039;&#039;&#039;&#039;[[analyse de sensibilité]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[apprentissage automatique]]&#039;&#039;&#039;, &#039;&#039;&#039;[[entraînement]]&#039;&#039;&#039; et &#039;&#039;&#039;[[optimisation de la politique relative au groupe]]&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;apprentissage par curriculum auto-évolutif&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-evolving curriculum learning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SEC&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- &#039;&#039;Automatic curriculum learning method tailored for reinforcement learning fine-tuning of large language models. It dynamically adjusts the training curriculum according to the model’s current capabilities using techniques like multi-armed bandit selection and sensitivity analysis. Its defining property is its dependence on performance-driven adaptation.&#039;&#039; --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2505.14970   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/self-evolving-curriculum-sec   Source : Emergent Mind]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Apprentissage_par_curriculum_auto-%C3%A9volutif&amp;diff=119079</id>
		<title>Apprentissage par curriculum auto-évolutif</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Apprentissage_par_curriculum_auto-%C3%A9volutif&amp;diff=119079"/>
		<updated>2026-03-19T20:11:14Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode d&#039;&#039;&#039;&#039;[[apprentissage par curriculum]]&#039;&#039;&#039; automatique adaptée au &#039;&#039;&#039;[[peaufinage]]&#039;&#039;&#039; de l&#039;&#039;&#039;&#039;[[apprentissage par renforcement]]&#039;&#039;&#039; des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039;. Elle ajuste dynamiquement le curriculum d&#039;entraînement en fonction des capacités actuelles du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039; à l&#039;aide de techniques telles que la sélection du &#039;&#039;&#039;[[Problème du bandit manchot|bandit manchot]]&#039;&#039;&#039; et l&#039;&#039;&#039;&#039;[[analyse de sensibilité]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[apprentissage automatique]]&#039;&#039;&#039;, &#039;&#039;&#039;[[entraînement]]&#039;&#039;&#039; et &#039;&#039;&#039;[[optimisation de la politique relative au groupe]]&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;apprentissage par curriculum auto-évolutif&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; self-evolving curriculum learning&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SEC&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- &#039;&#039;Automatic curriculum learning method tailored for reinforcement learning fine-tuning of large language models. It dynamically adjusts the training curriculum according to the model’s current capabilities using techniques like multi-armed bandit selection and sensitivity analysis. Its defining property is its dependence on performance-driven adaptation.&#039;&#039; -&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2505.14970   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/self-evolving-curriculum-sec   Source : Emergent Mind]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Largeur_du_faisceau&amp;diff=119078</id>
		<title>Largeur du faisceau</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Largeur_du_faisceau&amp;diff=119078"/>
		<updated>2026-03-19T20:08:50Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Paramètre de l’&#039;&#039;&#039;[[algorithme de recherche en faisceau]]&#039;&#039;&#039; qui définit le nombre de nœuds considérés à chaque niveau afin de limiter la mémoire nécessaire pour effectuer la recherche. Plus ce paramètre est grand, moins d’&#039;&#039;&#039;[[État|états]]&#039;&#039;&#039; sont éliminés. Il influence donc directement l&#039;étendue de la recherche.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Avec une largeur de faisceau infinie, aucun état n&#039;est éliminé et la recherche par faisceau est identique à la &#039;&#039;&#039;[[meilleure première recherche]]&#039;&#039;&#039;. Une largeur de faisceau de 1 correspond à un &#039;&#039;&#039;[[algorithme d&#039;escalade]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;largeur du faisceau&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; largeur de faisceau&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; beam width&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://www.geeksforgeeks.org/machine-learning/introduction-to-beam-search-algorithm/   Source : Geeks for Geeks]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Beam_search#Details   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Largeur_du_faisceau&amp;diff=119077</id>
		<title>Largeur du faisceau</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Largeur_du_faisceau&amp;diff=119077"/>
		<updated>2026-03-19T20:08:04Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Paramètre de l’&#039;&#039;&#039;[[algorithme de recherche en faisceau]]&#039;&#039;&#039; qui définit le nombre de nœuds considérés à chaque niveau afin de limiter la mémoire nécessaire pour effectuer la recherche. Plus ce paramètre est grand, moins d’&#039;&#039;&#039;[[État|états]]&#039;&#039;&#039; sont éliminés. Il influence donc directement l&#039;étendue de la recherche.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Avec une largeur de faisceau infinie, aucun état n&#039;est éliminé et la recherche par faisceau est identique à la &#039;&#039;&#039;[[meilleure première recherche]]&#039;&#039;&#039;. Une largeur de faisceau de 1 correspond à un &#039;&#039;&#039;[[algorithme d&#039;escalade]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;largeur du faisceau&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; beam width&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://www.geeksforgeeks.org/machine-learning/introduction-to-beam-search-algorithm/   Source : Geeks for Geeks]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Beam_search#Details   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreurs_de_traduction&amp;diff=119076</id>
		<title>Taux d&#039;erreurs de traduction</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreurs_de_traduction&amp;diff=119076"/>
		<updated>2026-03-19T20:06:21Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Métrique d&#039;évaluation de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui calcule le nombre de modifications nécessaires pour aligner une traduction automatique sur la traduction de référence. Elle mesure les insertions, les suppressions, les substitutions et les décalages nécessaires et elle pénalise tout changement d&#039;ordre des mots, même valide.&lt;br /&gt;
&lt;br /&gt;
Elle a été conçue pour estimer l&#039;effort humain lors de la post-édition d&#039;un texte.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039; et &#039;&#039;&#039;[[Character n-gram F-score|chrF]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Un TER plus faible, proche de 0, indique qu&#039;une traduction est meilleure et qu&#039;elle nécessite moins de modifications.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;Taux d&#039;erreurs de traduction&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;TER&#039;&#039;&#039; &#039;&#039;(de l&#039;anglais)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Translation Error Rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;TER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
A metric for automatic evaluation of machine translation that calculates the number of edits required to change a machine translation output into one of the references. It measures the insertions, deletions, substitutions, and shifts needed to transform a machine-generated hypothesis into reference translation. A lower TER, closer to 0, indicates a better translation with fewer edits required.&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/2006.amta-papers.25/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/pratyaynotfound/TER   Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/ter   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=COMET&amp;diff=119075</id>
		<title>COMET</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=COMET&amp;diff=119075"/>
		<updated>2026-03-19T20:01:41Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Métrique d&#039;évaluation neuronale de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui calcule la similarité entre une traduction automatique et une traduction de référence à l&#039;aide de &#039;&#039;&#039;[[Segment textuel|segments textuels]]&#039;&#039;&#039; et un entraînement sur des données humaines comme &#039;&#039;&#039;[[BLEURT]]&#039;&#039;&#039;. Elle intègre aussi le texte source dans son analyse ce qui lui permet d&#039;évaluer la fidélité du sens original.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Contrairement à &#039;&#039;&#039;[[BERTScore]]&#039;&#039;&#039;, COMET est entraîné à prédire différents types de jugements humains sous forme d&#039;effort de post-édition, d&#039;évaluation directe ou d&#039;analyse des erreurs de traduction.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;COMET&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;COMET&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Crosslingual Optimized Metric for Evaluation of Translation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A metric for automatic evaluation of machine translation that calculates the similarity between a machine translation output and a reference translation using token or sentence embeddings. It also uses the original text, enabling a semantic fidelity analysis of the translation.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Unlike BERTScore, COMET is trained on predicting different types of human judgements in the form of post-editing effort, direct assessment or translation error analysis.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/2020.emnlp-main.213/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://unbabel.github.io/COMET/html/models.html   Source : COMET]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/comet   Source : Machine Translate]&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=BERTScore&amp;diff=119074</id>
		<title>BERTScore</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=BERTScore&amp;diff=119074"/>
		<updated>2026-03-19T19:11:58Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Métrique d&#039;évaluation sémantique de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui calcule la similarité des mots entre une traduction automatique et une traduction de référence à l&#039;aide de &#039;&#039;&#039;[[Vecteur sémantique compact|vecteurs sémantiques compacts]]&#039;&#039;&#039;. Elle a été inventée pour améliorer les mesures basées sur les &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039; (voir &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;) et remédie à deux défauts courants de ces dernières : &lt;br /&gt;
* souvent, ces méthodes ne parviennent pas à faire correspondre les paraphrases et les synonymes de manière fiable ; &lt;br /&gt;
* les modèles n-grammes ne parviennent pas à saisir les dépendances distantes et pénalisent les changements d&#039;ordre sémantiquement critiques.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;BERTScore&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;BERTScore&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A metric for automatic evaluation of machine translation that calculates the similarity between a machine translation output and a reference translation using embeddings. It was invented as an improvement on n-gram-based metrics (see BLEU), and addresses two common pitfalls in these: 1) Such methods often fail to robustly match paraphrases. 2) N-gram models fail to capture distant dependencies and penalize semantically-critical ordering changes.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Advantages : semantic awareness, contextual understanding, flexibility across language and domains, robustness to paraphrasing, model agnostic evaluation, high correlation with human judgments. &lt;br /&gt;
&lt;br /&gt;
Limitations: Computational complexity, interpretability challenges, sensitivity to pre-trained models, language and cultural biases, handling very long texts, over-reliance on reference quality. &lt;br /&gt;
&lt;br /&gt;
Applications: machine translation, text summarization, text generation, paraphrase detection, sentiment analysis and text classification, multilingual NLP and Research and Development in NLP.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/1904.09675   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/bertscore   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[https://spotintelligence.com/2024/08/20/bertscore/   Source : Spot Intelligence]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=BERTScore&amp;diff=119073</id>
		<title>BERTScore</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=BERTScore&amp;diff=119073"/>
		<updated>2026-03-19T19:11:03Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Métrique d&#039;évaluation sémantique de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui calcule la similarité des mots entre une traduction automatique et une traduction de référence à l&#039;aide de &#039;&#039;&#039;[[Vecteur sémantique compact|vecteurs sémantiques compacts]]&#039;&#039;&#039;. Elle a été inventée pour améliorer les mesures basées sur les &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039; (voir &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;) et remédie à deux défauts courants de ces dernières : &lt;br /&gt;
* souvent, ces méthodes ne parviennent pas à faire correspondre les paraphrases et les synonymes de manière fiable ; &lt;br /&gt;
* les modèles n-grammes ne parviennent pas à saisir les dépendances distantes et pénalisent les changements d&#039;ordre sémantiquement critiques.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;BERTScore&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;BERTScore&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A metric for automatic evaluation of machine translation that calculates the similarity between a machine translation output and a reference translation using embeddings. It was invented as an improvement on n-gram-based metrics (see BLEU), and addresses two common pitfalls in these: 1) Such methods often fail to robustly match paraphrases. 2) n-gram models fail to capture distant dependencies and penalize semantically-critical ordering changes.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Advantages : semantic awareness, contextual understanding, flexibility across language and domains, robustness to paraphrasing, model agnostic evaluation, high correlation with human judgments. &lt;br /&gt;
&lt;br /&gt;
Limitations: Computational complexity, interpretability challenges, sensitivity to pre-trained models, language and cultural biases, handling very long texts, over-reliance on reference quality. &lt;br /&gt;
&lt;br /&gt;
Applications: machine translation, text summarization, text generation, paraphrase detection, sentiment analysis and text classification, multilingual NLP and Research and Development in NLP.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/1904.09675   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/bertscore   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[https://spotintelligence.com/2024/08/20/bertscore/   Source : Spot Intelligence]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Character_n-gram_F-score&amp;diff=119072</id>
		<title>Character n-gram F-score</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Character_n-gram_F-score&amp;diff=119072"/>
		<updated>2026-03-19T19:05:42Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Métrique d&#039;évaluation de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui calcule la similarité entre une traduction automatique et une traduction de référence à l&#039;aide de &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039; de caractères, et non de  mots entier. &lt;br /&gt;
&lt;br /&gt;
Ceci la rend robuste aux variations morphologiques, ce qui signifie qu&#039;elle reconnaît les différentes formes d&#039;un même mot. Ainsi, elle efficace pour les langues où les métriques basées sur les mots exacts échouent et elle est indépendante de la langue et du contexte linguistique.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BERTScore]]&#039;&#039;&#039;, &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;, &#039;&#039;&#039;[[BLEURT]]&#039;&#039;&#039;, &#039;&#039;&#039;[[COMET]]&#039;&#039;&#039; et &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;chrF&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Character n-gram F-score&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;chrF&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A metric for machine translation evaluation that calculates the similarity between a machine translation output and a reference translation using character n-grams, not word n-grams. It recognizes different forms of a single word. It is language-independent and language-independent.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W15-3049/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/chrF   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Character_n-gram_F-score&amp;diff=119071</id>
		<title>Character n-gram F-score</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Character_n-gram_F-score&amp;diff=119071"/>
		<updated>2026-03-19T18:58:58Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Métrique d&#039;évaluation de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui calcule la similarité entre une traduction automatique et une traduction de référence à l&#039;aide de &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039; de caractères, et non de n-grammes de mots. Elle reconnaît donc les différentes formes d&#039;un même mot. De plus, elle est indépendante de la langue et du contexte linguistique.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BERTScore]]&#039;&#039;&#039;, &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;, &#039;&#039;&#039;[[BLEURT]]&#039;&#039;&#039;, &#039;&#039;&#039;[[COMET]]&#039;&#039;&#039; et &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;chrF&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Character n-gram F-score&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;chrF&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A metric for machine translation evaluation that calculates the similarity between a machine translation output and a reference translation using character n-grams, not word n-grams. It recognizes different forms of a single word. It is language-independent and language-independent.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W15-3049/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/chrF   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Greedy_sampling&amp;diff=119070</id>
		<title>Greedy sampling</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Greedy_sampling&amp;diff=119070"/>
		<updated>2026-03-19T18:55:58Z</updated>

		<summary type="html">&lt;p&gt;Arianne : Arianne a déplacé la page Greedy sampling vers Échantillonnage glouton&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Échantillonnage glouton]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_glouton&amp;diff=119069</id>
		<title>Échantillonnage glouton</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_glouton&amp;diff=119069"/>
		<updated>2026-03-19T18:55:57Z</updated>

		<summary type="html">&lt;p&gt;Arianne : Arianne a déplacé la page Greedy sampling vers Échantillonnage glouton&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Méthode d&#039;échantillonnage déterministe peu complexe, dans laquelle le mot ayant la probabilité conditionnelle la plus élevée est sélectionné comme mot suivant dans la phrase, compte tenu des mots précédents. Cette méthode aboutit souvent à des séquences de mots sous-optimales et répétitives.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage des k-meilleurs]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; échantillonnage glouton&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; échantillonnage gourmand&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;greedy sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A deterministic sampling method that is computationally efficient and straightforward to implement, where the word with the highest conditional probability is selected as the next word in the sentence, given the previous words. This method often results in suboptimal and repetitive sequences.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/llm-sampling-explained-selecting-the-next-token-b897b5984833   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[https://cyrilzakka.github.io/llm-playbook/sampling.html   Source : The Large Language Model Playbook]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_glouton&amp;diff=119068</id>
		<title>Échantillonnage glouton</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_glouton&amp;diff=119068"/>
		<updated>2026-03-19T18:54:49Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Méthode d&#039;échantillonnage déterministe peu complexe, dans laquelle le mot ayant la probabilité conditionnelle la plus élevée est sélectionné comme mot suivant dans la phrase, compte tenu des mots précédents. Cette méthode aboutit souvent à des séquences de mots sous-optimales et répétitives.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage des k-meilleurs]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; échantillonnage glouton&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; échantillonnage gourmand&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;greedy sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A deterministic sampling method that is computationally efficient and straightforward to implement, where the word with the highest conditional probability is selected as the next word in the sentence, given the previous words. This method often results in suboptimal and repetitive sequences.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/llm-sampling-explained-selecting-the-next-token-b897b5984833   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[https://cyrilzakka.github.io/llm-playbook/sampling.html   Source : The Large Language Model Playbook]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=FLOPS&amp;diff=119067</id>
		<title>FLOPS</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=FLOPS&amp;diff=119067"/>
		<updated>2026-03-19T18:51:22Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
En &#039;&#039;&#039;[[intelligence artificielle|intelligence artificielle (IA)]]&#039;&#039;&#039;, FLOPS correspond au nombre d&#039;opérations en virgule flottante par seconde et sert à mesurer le coût ou la complexité computationnelle d&#039;un &#039;&#039;&#039;[[Modèle d&#039;intelligence artificielle|modèle]]&#039;&#039;&#039; ou d&#039;une opération spécifique au sein du modèle. Cette mesure peut également fournir des informations très utiles sur la consommation d&#039;énergie. &lt;br /&gt;
&lt;br /&gt;
Fondamentalement, elle représente la capacité d&#039;un ordinateur à effectuer des calculs arithmétiques sur des nombres réels.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[Mixture-of-Depths|mixture de profondeurs]]&#039;&#039;&#039; et &#039;&#039;&#039;[[paramètre]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Ne pas confondre avec FLOP, qui correspond à une opération arithmétique effectuée sur des nombres décimaux. &lt;br /&gt;
&lt;br /&gt;
FLOPs, où le « s » minuscule indique le pluriel, quant à lui, fait référence aux opérations en virgule flottante. Dans le domaine de l&#039;IA, FLOPs peut parfois avoir les deux significations ci-dessus, et c&#039;est au lecteur qu&#039;il revient d&#039;identifier celle à laquelle il se réfère exactement.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;FLOPS&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; opérations en virgule flottante par seconde&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Floating-Point Operations per Second&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; FLOPS&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--FLOPS stands for Floating-Point Operations per Second and it is used to measure the computational cost or complexity of a model or a specific operation within the model. This measure can also provide very useful insights on energy consumption. At its core, this measure represents a computer’s ability to perform arithmetic calculations on real numbers.&lt;br /&gt;
&lt;br /&gt;
FLOPs(lowercase “s” stands for plural) on the other hand, refers to the floating-point operations. In the discussion of AI, sometimes FLOPs can have both of the above meanings and it will leave it to the reader to identify the exact one it stands for.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://www.geeksforgeeks.org/computer-organization-architecture/what-is-floating-point-operations-per-second-flops/   Source : Geeks for Geeks]&lt;br /&gt;
&lt;br /&gt;
[https://www.kdnuggets.com/2023/06/calculate-computational-efficiency-deep-learning-models-flops-macs.html   Source : KDnuggets]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Floating_point_operations_per_second   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:ENGLISH]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attention_sink&amp;diff=119066</id>
		<title>Attention sink</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attention_sink&amp;diff=119066"/>
		<updated>2026-03-19T18:49:43Z</updated>

		<summary type="html">&lt;p&gt;Arianne : Arianne a déplacé la page Attention sink vers Puits d&amp;#039;attention&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Puits d&#039;attention]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Puits_d%27attention&amp;diff=119065</id>
		<title>Puits d&#039;attention</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Puits_d%27attention&amp;diff=119065"/>
		<updated>2026-03-19T18:49:42Z</updated>

		<summary type="html">&lt;p&gt;Arianne : Arianne a déplacé la page Attention sink vers Puits d&amp;#039;attention&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Ce terme peut désigner le phénomène ou le type de &#039;&#039;&#039;[[segment textuel]]&#039;&#039;&#039; concerné par le phénomène. &lt;br /&gt;
&lt;br /&gt;
Phénomène présent dans tous les &#039;&#039;&#039;[[Grand modèle de langues (GML)| grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle autorégressif|autorégressifs]]&#039;&#039;&#039;, dans lesquels les premiers segments textuels représentent une part extrêmement importante du score d&#039;attention, même s&#039;ils ne sont pas importants sur le plan sémantique. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Ce phénomène apparaît à la suite d&#039;une optimisation efficace sur une quantité suffisante de &#039;&#039;&#039;[[données d&#039;entraînement]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
La raison pour laquelle les segments textuels initiaux sont considérés comme des « segments puits » est intuitive : ils sont visibles par presque tous les segments textuels suivants en raison de la nature autorégressive du modèle, ce qui les rend plus aptes à servir de « puits d&#039;attention ».&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; puits d&#039;attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; attention sink&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;This term can refer to the phenomenon or to the type of token concerned by the phenomenon. This phenomenon is present in all autoregressive large language models, in which the first few tokens make up for a shockingly large amount of the attention score, even if the tokens are not semantically important. It emerges after effective optimization on sufficient training data. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;The reason behind initial tokens as “sink tokens” is intuitive: initial tokens are visible to almost all subsequent tokens because of the autoregressive language modeling nature, making them more readily trained to serve as “attention sinks”.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;This phenomenon has been widely adopted in applications such as streaming/long context generation, KV cache optimization, inference acceleration, model quantization, and others.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2309.17453   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2410.10781   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://huggingface.co/blog/tomaarsen/attention-sinks   Source : Hugging Face Blog]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Puits_d%27attention&amp;diff=119064</id>
		<title>Puits d&#039;attention</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Puits_d%27attention&amp;diff=119064"/>
		<updated>2026-03-19T18:49:26Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Ce terme peut désigner le phénomène ou le type de &#039;&#039;&#039;[[segment textuel]]&#039;&#039;&#039; concerné par le phénomène. &lt;br /&gt;
&lt;br /&gt;
Phénomène présent dans tous les &#039;&#039;&#039;[[Grand modèle de langues (GML)| grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle autorégressif|autorégressifs]]&#039;&#039;&#039;, dans lesquels les premiers segments textuels représentent une part extrêmement importante du score d&#039;attention, même s&#039;ils ne sont pas importants sur le plan sémantique. &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Ce phénomène apparaît à la suite d&#039;une optimisation efficace sur une quantité suffisante de &#039;&#039;&#039;[[données d&#039;entraînement]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
La raison pour laquelle les segments textuels initiaux sont considérés comme des « segments puits » est intuitive : ils sont visibles par presque tous les segments textuels suivants en raison de la nature autorégressive du modèle, ce qui les rend plus aptes à servir de « puits d&#039;attention ».&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; puits d&#039;attention&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; attention sink&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;This term can refer to the phenomenon or to the type of token concerned by the phenomenon. This phenomenon is present in all autoregressive large language models, in which the first few tokens make up for a shockingly large amount of the attention score, even if the tokens are not semantically important. It emerges after effective optimization on sufficient training data. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;The reason behind initial tokens as “sink tokens” is intuitive: initial tokens are visible to almost all subsequent tokens because of the autoregressive language modeling nature, making them more readily trained to serve as “attention sinks”.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;This phenomenon has been widely adopted in applications such as streaming/long context generation, KV cache optimization, inference acceleration, model quantization, and others.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2309.17453   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2410.10781   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://huggingface.co/blog/tomaarsen/attention-sinks   Source : Hugging Face Blog]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Agent_d%27interface_graphique&amp;diff=119063</id>
		<title>Agent d&#039;interface graphique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Agent_d%27interface_graphique&amp;diff=119063"/>
		<updated>2026-03-18T15:46:00Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Agent autonome]]&#039;&#039;&#039; &#039;&#039;&#039;[[Agent intelligent|intelligent]]&#039;&#039;&#039; qui interagit avec diverses interfaces numériques, telles que les ordinateurs de bureau ou les téléphones mobiles, via leur interface utilisateur graphique. Il identifie et observe les éléments visuels affichés et interagit avec eux en cliquant, en tapant ou en appuyant, imitant ainsi les schémas d&#039;interaction d&#039;un utilisateur humain.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[modèle fondateur]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
On retrouve le terme &#039;&#039;outil de contrôle d&#039;ordinateur&#039;&#039; ou &#039;&#039;computer use&#039;&#039; pour désigner ce genre d&#039;outil lorsque cette fonctionnalité qui permet d&#039;utiliser un ordinateur par une interface graphique est présente dans un &#039;&#039;&#039;[[grand modèle de langues]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; agent d&#039;interface graphique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; agent d&#039;interface graphique personnalisée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; agent d&#039;environnement graphique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; agent GUI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; graphical user interface agent&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; GUI agent&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; GUIA&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Intelligent autonomous agent that interacts with digital platroms, such as desktops or mobile phones through their Graphical User Interface. It identifies and observes interactable visual éléments displayed on these plaforms or screens and engages with them by clicking, typing or tapping, mimicking the interaction patterns of a human user.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://www.anthropic.com/news/developing-computer-use   Source : Anthropic]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2504.13865   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2412.13501   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&amp;amp;i=1&amp;amp;srchtxt=GRAPHICAL+USER+INTERFACE&amp;amp;index=alt&amp;amp;codom2nd_wet=1#resultrecs   Source : TERMIUM Plus]&lt;br /&gt;
&lt;br /&gt;
[https://platform.claude.com/docs/fr/agents-and-tools/tool-use/computer-use-tool  Source : Claude API docs]&lt;br /&gt;
&lt;br /&gt;
[https://developers.openai.com/api/docs/guides/tools-computer-use/  Source : OpenAI Developers]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Greedy_Search&amp;diff=119062</id>
		<title>Greedy Search</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Greedy_Search&amp;diff=119062"/>
		<updated>2026-03-18T15:44:06Z</updated>

		<summary type="html">&lt;p&gt;Arianne : Arianne a déplacé la page Greedy Search vers Recherche gloutonne&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Recherche gloutonne]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Recherche_gloutonne&amp;diff=119061</id>
		<title>Recherche gloutonne</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Recherche_gloutonne&amp;diff=119061"/>
		<updated>2026-03-18T15:44:06Z</updated>

		<summary type="html">&lt;p&gt;Arianne : Arianne a déplacé la page Greedy Search vers Recherche gloutonne&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Approche algorithmique qui ne retient que le meilleur mot à chaque position individuelle. Elle garde en mémoire la séquence la plus probable à chaque étape, écartant les autres possibilités et sans tenir compte des résultats potentiels à long terme.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[algorithme de recherche en faisceau]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; recherche gloutonne&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche gourmande&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; greedy search&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; greedy decoding&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; greedy search strategy&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Algorithmic approach that takes only the single best word at each individual position. It keeps track of the most likely sequence at each step, discarding other possibilities and without considering potential long-term outcomes.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://codelabsacademy.com/en/blog/the-beam-search-algorithm-in-the-context-of-natural-language-processing-and-sequence-generation-tasks   Source : Code Labs Academy]&lt;br /&gt;
&lt;br /&gt;
[https://www.sciencedirect.com/topics/computer-science/greedy-search-strategy   Source : ScienceDirect]&lt;br /&gt;
&lt;br /&gt;
[https://towardsdatascience.com/foundations-of-nlp-explained-visually-beam-search-how-it-works-1586b9849a24/   Source : towards data science]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Recherche_gloutonne&amp;diff=119060</id>
		<title>Recherche gloutonne</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Recherche_gloutonne&amp;diff=119060"/>
		<updated>2026-03-18T15:43:51Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Approche algorithmique qui ne retient que le meilleur mot à chaque position individuelle. Elle garde en mémoire la séquence la plus probable à chaque étape, écartant les autres possibilités et sans tenir compte des résultats potentiels à long terme.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[algorithme de recherche en faisceau]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; recherche gloutonne&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche gourmande&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; greedy search&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; greedy decoding&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; greedy search strategy&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Algorithmic approach that takes only the single best word at each individual position. It keeps track of the most likely sequence at each step, discarding other possibilities and without considering potential long-term outcomes.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://codelabsacademy.com/en/blog/the-beam-search-algorithm-in-the-context-of-natural-language-processing-and-sequence-generation-tasks   Source : Code Labs Academy]&lt;br /&gt;
&lt;br /&gt;
[https://www.sciencedirect.com/topics/computer-science/greedy-search-strategy   Source : ScienceDirect]&lt;br /&gt;
&lt;br /&gt;
[https://towardsdatascience.com/foundations-of-nlp-explained-visually-beam-search-how-it-works-1586b9849a24/   Source : towards data science]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Semantic_shift_detection&amp;diff=119059</id>
		<title>Semantic shift detection</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Semantic_shift_detection&amp;diff=119059"/>
		<updated>2026-03-18T15:35:53Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Tâche consistant à identifier, interpréter et évaluer l&#039;évolution possible, au fil du temps, des sens ou significations d&#039;une unité lexicale cible, en regroupant ses &#039;&#039;&#039;[[Vecteur sémantique compact|vecteurs sémantiques compacts]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; XXXXXXXXX&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Semantic shift detection&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; SSD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is the task of identifying, interpreting, and assessing the possible change over time in the meanings of a target word, by clustering its contextualised embeddings.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2304.01666   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://link.springer.com/article/10.1007/s10579-024-09769-1   Source : Link.Springer]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Integrated_physical_AI&amp;diff=119058</id>
		<title>Integrated physical AI</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Integrated_physical_AI&amp;diff=119058"/>
		<updated>2026-03-18T15:31:08Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Système qui imite les individus et qui intègre la perception du monde physique grâce à divers capteurs (par exemple, capteurs de matière, de température, visuels, acoustiques), l&#039;interprétation de divers indices et des réactions physiques dans le monde réel. Aujourd&#039;hui, certains &#039;&#039;&#039;[[robots]]&#039;&#039;&#039; en sont un exemple typiques.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[physical AI]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle intégrée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Integrated physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Integrated PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IPAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
It refers to systems that mimic individuals and integrate the perception of the physical world through various sensors (e.g., material sensors, temperature, vision, sound), induction of various indices, and physical responses in the physical world.Robots are a typical example of IPAI.&lt;br /&gt;
&lt;br /&gt;
== Source ==&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Integrated_physical_AI&amp;diff=119057</id>
		<title>Integrated physical AI</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Integrated_physical_AI&amp;diff=119057"/>
		<updated>2026-03-18T14:03:35Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
&amp;lt;!--Systèmes qui imitent les individus et intègrent la perception du monde physique grâce à divers capteurs (par exemple, capteurs de matière, de température, visuels, acoustiques), l&#039;interprétation de divers indices et des réactions physiques dans le monde réel. Les robots constituent un exemple typique d&#039;IPAI.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[physical AI]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; XXXXXXX&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Integrated physical AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Integrated PAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; IPAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Refers to systems that mimic individuals and integrate the perception of the physical world through various sensors (e.g., material sensors, temperature, vision, sound), induction of various indices, and physical responses in the physical world.Robots are a typical example of IPAI.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Source ==&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Intelligence_artificielle_num%C3%A9rique&amp;diff=119056</id>
		<title>Intelligence artificielle numérique</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Intelligence_artificielle_num%C3%A9rique&amp;diff=119056"/>
		<updated>2026-03-18T14:01:50Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
&#039;&#039;&#039;[[Intelligence artificielle|Intelligence artificielle (IA)]]&#039;&#039;&#039; basée sur les &#039;&#039;&#039;[[données]]&#039;&#039;&#039; et au traitement des données, qui sont aujourd&#039;hui très répandus ; la plupart des applications de l&#039;IA basée sur les données se limitent à des tâches spécifiques et fonctionnent souvent comme une « boîte noire » dont le fonctionnement est mal expliqué.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[physical AI]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Intelligence artificielle digitale&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Digital AI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; DIAI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It refers to data-driven AI and data processing that is popular today, most DIAI applications are limited to specific tasks, often functions as a poorly explained “black box”.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Source ==&lt;br /&gt;
[https://www.researchgate.net/publication/392709593_A_Systematic_Review_of_Physical_Artificial_Intelligence_Physical_AI_Concepts_Applications_Challenges_and_Future_Directions   Source : Research Gate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=SacreBLEU&amp;diff=119055</id>
		<title>SacreBLEU</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=SacreBLEU&amp;diff=119055"/>
		<updated>2026-03-18T13:58:28Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Bibliothèque qui permet une implémentation de référence de &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039; et qui télécharge automatiquement les ensembles de tests et renvoie une chaîne de versions afin de faciliter les comparaisons entre laboratoires. Elle connaît également tous les ensembles de tests standard et gère leur téléchargement, leur traitement et leur &#039;&#039;&#039;[[segmentation]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039; et &#039;&#039;&#039;[[ROUGE]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; SacreBLEU&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; SacreBLEU&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A reference BLEU implementation that auto-downloads test sets and reports a version string to facilitate cross-lab comparisons. It also knows all the standard test sets and handles downloading, processing, and tokenization.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W18-6319/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/mjpost/sacrebleu   Source : GitHub, SacreBLEU]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=SacreBLEU&amp;diff=119054</id>
		<title>SacreBLEU</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=SacreBLEU&amp;diff=119054"/>
		<updated>2026-03-18T13:56:58Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Bibliothèque qui permet une implémentation de référence de &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039; et qui télécharge automatiquement les ensembles de tests et renvoie une chaîne de versions afin de faciliter les comparaisons entre laboratoires. Elle connaît également tous les ensembles de tests standard et gère leur téléchargement, leur traitement et leur tokenisation.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039; et &#039;&#039;&#039;[[ROUGE]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; SacreBLEU&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; SacreBLEU&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A reference BLEU implementation that auto-downloads test sets and reports a version string to facilitate cross-lab comparisons. It also knows all the standard test sets and handles downloading, processing, and tokenization.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W18-6319/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/mjpost/sacrebleu   Source : GitHub, SacreBLEU]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=LEPOR&amp;diff=119053</id>
		<title>LEPOR</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=LEPOR&amp;diff=119053"/>
		<updated>2026-03-18T13:50:03Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
LEPOR est l&#039;acronyme de « Length Penalty, Precision, n-gram Position difference Penalty and Recall » ; il s&#039;agit d&#039;une métrique d&#039;évaluation de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; doté de paramètres ajustables et de facteurs d&#039;ajustement afin de remédier au problème de biais linguistique. &lt;br /&gt;
&lt;br /&gt;
Plus spécifiquement, LEPOR concentre sur la combinaison de deux facteurs modifiés (pénalité liée à la longueur de la phrase et pénalité liée à la différence de position des &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039;) et de deux méthodologies classiques (précision et rappel).&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;, &#039;&#039;&#039;[[METEOR]]&#039;&#039;&#039;, &#039;&#039;&#039;[[NIST (metric)|NIST]]&#039;&#039;&#039; et &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
*La métrique LEPOR a donné naissance à la série de métriques LEPOR. Cette série ne nécessite aucun &#039;&#039;&#039;[[jeu de données]]&#039;&#039;&#039; supplémentaire.&lt;br /&gt;
*Le biais linguistique désigne le fait que certaines métriques performent mieux sur certaines langues que d&#039;autres. En effet, certaines métriques reposent sur des informations et caractéristiques linguistiques spécifiques de certaines langues. Ceci rend difficile la reproductibilité des expériences.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; LEPOR&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Length Penalty, Precision, n-gram Position difference Penalty and Recall&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; LEPOR&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;LEPOR stands for Length Penalty, Precision, n-gram Position difference Penalty and Recall and it is an automatic machine translation evaluation metric with tunable parameters and augmented factors to address the language bias problem.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;LEPOR metric has been developed into LEPOR series. This metric does not need any extra dataset or tool.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Some metrics perform well on certain languages but weak on other languages, which is usually called as a language bias problem. Some metrics rely on a lot of language features or linguistic information, which makes it difficult for other researchers to repeat the experiments.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/C12-2044/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/1703.08748   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/poethan/LEPOR   Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/LEPOR   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119038</id>
		<title>Taux d&#039;erreur en mots</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119038"/>
		<updated>2026-03-17T17:36:27Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
WER est l&#039;acronyme de « Word Error Rate » ; il s&#039;agit d&#039;un indicateur qui permet de mesurer les performances d&#039;un système de &#039;&#039;&#039;[[Reconnaissance automatique de la parole|reconnaissance vocale]]&#039;&#039;&#039; ou de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039;, de comparer différents systèmes et d&#039;évaluer les améliorations apportées à un même système.&lt;br /&gt;
&lt;br /&gt;
Il ne fournit aucune précision sur la nature des erreurs de traduction.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
*&#039;&#039;&#039;Attention&#039;&#039;&#039;: À ne pas confondre avec &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;!&lt;br /&gt;
*Le taux d&#039;erreur sur les mots est dérivé de la &#039;&#039;&#039;[[distance de Levenshtein]]&#039;&#039;&#039;, qui opère au niveau des mots plutôt qu&#039;au niveau des phonèmes. Où 0 indique que les segments de texte comparés sont exactement identiques, et 1 (ou plus) indique qu&#039;ils sont complètement différents et ne présentent aucune similitude&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur sur les mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;WER&#039;&#039;&#039; (de l&#039;anglais)&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Word error rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; WER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;WER stands for Word Error Rate and it is a metric measuring the performance of a speech recognition or machine translation system and comparing different systems as well as for evaluating improvements within one system. It provides no details on the nature of translation errors, and it typically ranges from 0 to 1.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is erived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Taux_d%27erreur_de_mots   Source : Wikipédia]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Word_error_rate   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreurs_de_traduction&amp;diff=119037</id>
		<title>Taux d&#039;erreurs de traduction</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreurs_de_traduction&amp;diff=119037"/>
		<updated>2026-03-17T17:34:45Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Mesure d&#039;évaluation de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui calcule le nombre de modifications nécessaires pour transformer une traduction automatique en l&#039;une des traductions de référence. Elle mesure les insertions, les suppressions, les substitutions et les décalages nécessaires pour transformer une hypothèse générée par une machine en traduction de référence. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039; et &#039;&#039;&#039;[[Character n-gram F-score|chrF]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Un TER plus faible, proche de 0, indique qu&#039;une traduction est meilleure et qu&#039;elle nécessite moins de modifications.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;Taux d&#039;erreurs de traduction&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TED&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039; (de l&#039;anglais)--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Translation Error Rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;TER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--Metric for automatic evaluation of machine translation that calculates the number of edits required to change a machine translation output into one of the references. It measures the insertions, deletions, substitutions, and shifts needed to transform a machine-generated hypothesis into reference translation. A lower TER, closer to 0, indicates a better translation with fewer edits required.--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/2006.amta-papers.25/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/pratyaynotfound/TER   Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/ter   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=NIST_(m%C3%A9trique)&amp;diff=119036</id>
		<title>NIST (métrique)</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=NIST_(m%C3%A9trique)&amp;diff=119036"/>
		<updated>2026-03-17T17:27:45Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Méthode d&#039;évaluation automatique de la qualité de la &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; dérivée du score &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;. Tout en calculant la similarité à l&#039;aide de la précision des &#039;&#039;&#039;[[N-gramme|n-grammes]]&#039;&#039;&#039;, elle évalue également le degré d&#039;information fourni par un n-gramme donné.&lt;br /&gt;
&lt;br /&gt;
L&#039;idée sous-jacente est d&#039;accorder plus de crédit à un système lorsqu&#039;il obtient une correspondance de n-gramme difficile, et moins de crédit pour une correspondance de n-gramme facile.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
*Par rapport à BLEU, NIST accorde davantage d&#039;importance aux n-grammes moins fréquents ; il se distingue également de BLEU dans le calcul de la pénalité de concision, où de légères variations de la longueur de la traduction n&#039;ont pas autant d&#039;impact sur le score global.&lt;br /&gt;
*Le nom de la métrique provient du &#039;&#039;National Institute of Standards and Technology&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; NIST&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; NIST&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; National Institute of Standards and Technology&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;NIST stands for National Institute of Standards and Technology and it is an automatic evaluation of machine translation adaptation of BLEU. While it also calculates the similarity using n-grams precision, NIST also calculates how informative a particular n-gram is. The idea behind this is to give more credit if a system gets an n-gram match that is difficult, but to give less credit for an n-gram match which is easy.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Compared to BLEU, NIST gives more importance to the less frequent n-grams, also differs from BLEU in its calculation of the brevity penalty insofar as small variations in translation length do not impact the overall score as much.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/L04-1489/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/nist   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/NIST_(metric)   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=YiSi&amp;diff=119035</id>
		<title>YiSi</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=YiSi&amp;diff=119035"/>
		<updated>2026-03-17T17:22:15Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
Famille de métriques de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; qui évalue la sémantique en utilisant la représentation des phrases pour des langues ayant des niveaux de ressources variables. &lt;br /&gt;
&lt;br /&gt;
Elle calcule la similarité en agréggant les similarités sémantiques lexicales distributionnelles pondérées et, éventuellement, en intégrant des structures sémantiques superficielles.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039;, &#039;&#039;&#039;[[Character n-gram F-score|chrF]]&#039;&#039;&#039;, &#039;&#039;&#039;[[MEANT]]&#039;&#039;&#039; et &#039;&#039;&#039;[[METEOR]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Le terme YiSi provient du mot cantonais 意思, qui signifie « sens » ou « signification ».&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; YiSi&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; YiSi&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A family of semantic machine translation evaluation metrics using sentence representation for languages with different levels of available resources. It calculates the similarity by aggregating the weighted distributional lexical semantic similarities and optionally incorporating shallow semantic structures.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W19-5358/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://github.com/chikiulo/yisi   Source : GitHub]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/yisi   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=METEOR&amp;diff=119034</id>
		<title>METEOR</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=METEOR&amp;diff=119034"/>
		<updated>2026-03-17T15:26:07Z</updated>

		<summary type="html">&lt;p&gt;Arianne : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== en construction ==&lt;br /&gt;
&lt;br /&gt;
== Définition ==&lt;br /&gt;
METEOR est l&#039;acronyme de « Metric for Evaluation of Translation with Explicit Ordering » : cette métrique est utilisée pour l&#039;évaluation automatique de la &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039; en tenant compte à la fois de la précision et du rappel lors de l&#039;évaluation d&#039;une correspondance entre les traductions. &lt;br /&gt;
&lt;br /&gt;
Elle a spécifiquement été conçue pour pallier aux faiblesses de &#039;&#039;&#039;[[BLEU]]&#039;&#039;&#039; : non seulement METEOR met en correspondance les mots identiques dans lors de la comparaison de deux chaînes de caractères, mais elle peut également mettre en correspondance des mots qui ne sont que de simples variantes morphologiques les uns des autres, ainsi que des mots qui sont synonymes.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[NIST]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
*METEOR diffère aussi de BLEU par le fait que cette dernière cherche à établir une corrélation au niveau du corpus.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; METEOR&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; METEOR&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Metric for Evaluation of Translation with Explicit Ordering&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;METEOR stands for Metric for Evaluation of Translation with Explicit Ordering and it is used for automatic evaluation of machine translation by taking into account both the precision and recall while evaluating a match. It was designed to explicitly address weaknesses in BLEU metric: not only it matches words that are identical in the two strings being compared, but can also match words that are simple morphological variants of each other and words that are synonyms of each other.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Differs from the BLEU metric in that BLEU seeks correlation at the corpus level.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://aclanthology.org/W05-0909/   Source : ACL Anthology]&lt;br /&gt;
&lt;br /&gt;
[https://machinetranslate.org/meteor   Source : Machine Translate]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/METEOR   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Arianne</name></author>
	</entry>
</feed>