<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
	<id>https://datafranca.org/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Claude+COULOMBE</id>
	<title>DataFranca - Contributions [fr]</title>
	<link rel="self" type="application/atom+xml" href="https://datafranca.org/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Claude+COULOMBE"/>
	<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/Sp%C3%A9cial:Contributions/Claude_COULOMBE"/>
	<updated>2026-04-09T11:21:46Z</updated>
	<subtitle>Contributions</subtitle>
	<generator>MediaWiki 1.39.5</generator>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attribut_dense&amp;diff=119246</id>
		<title>Attribut dense</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attribut_dense&amp;diff=119246"/>
		<updated>2026-04-01T07:23:27Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
[[Attribut]] dont la plupart des valeurs sont différentes de zéro, généralement une matrice ou un tenseur de valeurs à virgules flottantes.&lt;br /&gt;
&lt;br /&gt;
À comparer à la &#039;&#039;&#039;[[attribut creux]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attribut dense&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;caractéristique dense&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;dense feature&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/  Google machine learning glossary - caractéristique dense]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Apprentissage profond]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119245</id>
		<title>Attribut creux</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119245"/>
		<updated>2026-04-01T07:22:47Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Vecteur ou matrice d&#039;[[attribut|attributs]] dont les valeurs sont la plupart nulles ou vides. &lt;br /&gt;
&lt;br /&gt;
Par exemple, un vecteur contenant une seule valeur 1 et un million de valeurs 0 est dit creux. Autre exemple : les mots d&#039;une requête de recherche peuvent aussi être un attribut creux. En effet, il existe de très nombreux mots possibles dans une langue donnée, mais seuls quelques-uns d&#039;entre eux peuvent apparaître dans une requête.&lt;br /&gt;
&lt;br /&gt;
À comparer à &#039;&#039;&#039;[[attribut dense]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attribut creux&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;caractéristique creuse&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;sparse feature&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/ Google machine learning glossary - caractéristique creuse]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Apprentissage profond]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119244</id>
		<title>Attribut creux</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119244"/>
		<updated>2026-04-01T07:21:04Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Vecteur ou matrice d&#039;[[attribut|attributs]] dont les valeurs sont la plupart nulles ou vides. &lt;br /&gt;
&lt;br /&gt;
Par exemple, un vecteur contenant une seule valeur 1 et un million de valeurs 0 est dit creux. Autre exemple : les mots d&#039;une requête de recherche peuvent aussi être un attribut creux. En effet, il existe de très nombreux mots possibles dans une langue donnée, mais seuls quelques-uns d&#039;entre eux peuvent apparaître dans une requête.&lt;br /&gt;
&lt;br /&gt;
À comparer à &#039;&#039;&#039;[[attribut dense]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attribut creux&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;caractéristique creuse&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;sparse feature&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Apprentissage profond]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119243</id>
		<title>Attribut creux</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119243"/>
		<updated>2026-04-01T07:20:51Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Vecteur ou matrice d&#039;[[attribut|attributs]] dont les valeurs sont la plupart nulles ou vides. &lt;br /&gt;
&lt;br /&gt;
Par exemple, un vecteur contenant une seule valeur 1 et un million de valeurs 0 est dit creux. Autre exemple : les mots d&#039;une requête de recherche peuvent aussi être un attribut creux. En effet, il existe de très nombreux mots possibles dans une langue donnée, mais seuls quelques-uns d&#039;entre eux peuvent apparaître dans une requête.&lt;br /&gt;
&lt;br /&gt;
À comparer à la &#039;&#039;&#039;[[attribut dense]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attribut creux&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;caractéristique creuse&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;sparse feature&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Apprentissage profond]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Caract%C3%A9ristique_dense&amp;diff=119242</id>
		<title>Caractéristique dense</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Caract%C3%A9ristique_dense&amp;diff=119242"/>
		<updated>2026-04-01T07:19:24Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page Caractéristique dense vers Attribut dense&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Attribut dense]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attribut_dense&amp;diff=119241</id>
		<title>Attribut dense</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attribut_dense&amp;diff=119241"/>
		<updated>2026-04-01T07:19:24Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page Caractéristique dense vers Attribut dense&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
[[Attribut]] dont la plupart des valeurs sont différentes de zéro, généralement une matrice ou un tenseur de valeurs à virgules flottantes.&lt;br /&gt;
&lt;br /&gt;
À comparer à la &#039;&#039;&#039;[[attribut creux]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attribut dense&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;caractéristique dense&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;dense feature&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/  Source : Google machine learning glossary]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Apprentissage profond]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attribut_dense&amp;diff=119240</id>
		<title>Attribut dense</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attribut_dense&amp;diff=119240"/>
		<updated>2026-04-01T07:19:09Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
[[Attribut]] dont la plupart des valeurs sont différentes de zéro, généralement une matrice ou un tenseur de valeurs à virgules flottantes.&lt;br /&gt;
&lt;br /&gt;
À comparer à la &#039;&#039;&#039;[[attribut creux]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;attribut dense&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;caractéristique dense&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;dense feature&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/  Source : Google machine learning glossary]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Apprentissage profond]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Donn%C3%A9es_%C3%A9parses&amp;diff=119233</id>
		<title>Données éparses</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Donn%C3%A9es_%C3%A9parses&amp;diff=119233"/>
		<updated>2026-03-31T19:47:16Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Ensemble de données (matrice ou vecteur) dont la très grandes majorité des valeurs sont à zéro.&lt;br /&gt;
&lt;br /&gt;
À noter que les données éparses se distinguent des données absentes dont la valeur n&#039;est pas zéro, mais nulle. Les structures de données au sein desquelles les données sont disséminées sont qualifiées de &#039;&#039;creuses&#039;&#039; (&#039;&#039;[[matrice creuse]]&#039;&#039;, &#039;&#039;vecteur creux&#039;&#039;).&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;données éparses&#039;&#039;&#039;   &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;données clairsemées&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;données disséminées&#039;&#039;&#039;   &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;données parcimonieuses&#039;&#039;&#039;  &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;données creuses&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;sparse data&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Español==&lt;br /&gt;
[[Catégorie:es]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039; datos dispersos &#039;&#039;&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Conjunto de datos (matriz o vector) en el que la gran mayoría de los valores son cero. &#039;&#039;&lt;br /&gt;
&#039;&#039;Obsérvese que los datos dispersos se distinguen de los datos ausentes, en los que el valor no es cero, sino nulo. Las estructuras de datos en las que los datos están dispersos se denominan huecas (matriz hueca, vector hueco). &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
Source: Rapin, Jérémy (2014). &#039;&#039;Décompositions parcimonieuses pour l&#039;analyse avancée de données en spectrométrie pour la Santé&#039;&#039;, thèse de doctorat, Univeraité Paris Sud, 160 pages.&lt;br /&gt;
&lt;br /&gt;
Source: Balvet, Antonio (2002). &#039;&#039;Approches catégoriques et non catégoriques en linguistique des corpus spécialisés,application à un système de filtrage d’information&#039;&#039;, thèse de doctorat, Université de Nanterre - Paris X, 331 pages.&lt;br /&gt;
&lt;br /&gt;
[[Utilisateur:Claude COULOMBE | Source: Claude Coulombe, Datafranca.org]]&lt;br /&gt;
&lt;br /&gt;
[[Utilisateur:Patrickdrouin  | Source: Termino  ]]&lt;br /&gt;
&lt;br /&gt;
{{Modèle:101}}&lt;br /&gt;
[[Category:Apprentissage profond]]&lt;br /&gt;
[[Category:Apprentissage automatique]]&lt;br /&gt;
&lt;br /&gt;
[[Category:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:101]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Segment_textuel&amp;diff=119229</id>
		<title>Segment textuel</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Segment_textuel&amp;diff=119229"/>
		<updated>2026-03-31T19:31:38Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
En &#039;&#039;&#039;[[traitement automatique de la langue naturelle]]&#039;&#039;&#039;, le segment est l&#039;unité de base pour l&#039;analyse de textes produite par un &#039;&#039;&#039;[[segmenteur]]&#039;&#039;&#039; (en anglais &#039;&#039;tokenizer&#039;&#039;).&lt;br /&gt;
&lt;br /&gt;
==Compléments==&lt;br /&gt;
Un segment textuel peut correspondre à un mot, à une partie de mot, une suite de caractères ou même parfois à une seule lettre ou symbole.&lt;br /&gt;
&lt;br /&gt;
Traditionnellement, en &#039;&#039;&#039;[[Traitement automatique de la langue naturelle|TALN]]&#039;&#039;&#039;, les algorithmes travaillaient au niveau du mot ou des unités lexicales, mais depuis l&#039;arrivée des techniques d&#039;apprentissage profond, la segmentation s&#039;effectue plutôt au niveau sous-lexical. Un atout important du traitement sous-lexical est d&#039;éviter les mots &#039;&#039;hors-vocabulaire&#039;&#039;, puisqu&#039;on peut plus facilement créer de nouvelles unités lexicales à partir d&#039;éléments sous-lexicaux. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
On appelle aussi les unités résultant de la segmentation des &#039;&#039;&#039;jetons&#039;&#039;&#039;, mais le terme &#039;&#039;&#039;jeton&#039;&#039;&#039; est plutôt réservé à la cybersécurité et les réseaux de communication. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pour la suite du traitement, le segment résultant est souvent converti en un nombre entier. On dit alors que le segment est encodé. Le processus inverse, le décodage part de la représentation par un nombre entier vers un segment de texte.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;segment textuel&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;segment de texte&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;jeton textuel&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;jeton&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;symbole&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;unité sous-lexicale&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;unité lexicale&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;partie de mot&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;token&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&amp;amp;i=1&amp;amp;srchtxt=tokenizer&amp;amp;index=alt&amp;amp;codom2nd_wet=1#resultrecs &#039;&#039;Termium - Tokenizer&#039;&#039;]&lt;br /&gt;
&lt;br /&gt;
[https://www.culture.gouv.fr/content/download/365680/pdf_file/50_termes_cl%C3%A9s_de_l%27IA-2025.pdf?inLanguage=fre-FR&amp;amp;version=2  &#039;&#039;50 termes clés de l&#039;intelligence artificielle&#039;&#039;, Ministère de la culture, Commission d&#039;enrichissement de la langue française (2025). - Jeton textuel]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Analyse_lexicale  Wikipedia - &#039;&#039;Analyse lexicale&#039;&#039;]&lt;br /&gt;
&lt;br /&gt;
[https://www.sciencedirect.com/science/article/pii/S0167865518303271 &#039;&#039;A unified multilingual handwriting recognition system using multigrams sub-lexical units&#039;&#039;, Swaileh et al. 2019]&lt;br /&gt;
&lt;br /&gt;
[https://link.springer.com/chapter/10.1007/978-3-319-77113-7_1, &#039;&#039;Overview of Character-Based Models for Natural Language Processing&#039;&#039;, Adel et al. 2018]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Lexical_analysis  Wikipedia - Lexical Analysis]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Sparse_feature&amp;diff=119223</id>
		<title>Sparse feature</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Sparse_feature&amp;diff=119223"/>
		<updated>2026-03-31T19:06:46Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Destination de redirection modifiée de Caractéristique creuse en Attribut creux&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION[[attribut creux]]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:ENGLISH]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Caract%C3%A9ristique_creuse&amp;diff=119222</id>
		<title>Caractéristique creuse</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Caract%C3%A9ristique_creuse&amp;diff=119222"/>
		<updated>2026-03-31T19:05:19Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page Caractéristique creuse vers Attribut creux&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Attribut creux]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119221</id>
		<title>Attribut creux</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119221"/>
		<updated>2026-03-31T19:05:19Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page Caractéristique creuse vers Attribut creux&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Vecteur d&#039;attributs dont les valeurs sont la plupart nulles ou vides. &lt;br /&gt;
&lt;br /&gt;
Par exemple, un vecteur contenant une seule valeur 1 et un million de valeurs 0 est dit creux. Autre exemple : les mots d&#039;une requête de recherche peuvent aussi être un attribut creux. En effet, il existe de très nombreux mots possibles dans une langue donnée, mais seuls quelques-uns d&#039;entre eux peuvent apparaître dans une requête.&lt;br /&gt;
&lt;br /&gt;
À comparer à la &#039;&#039;&#039;[[caractéristique dense]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attribut creux&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;caractéristique creuse&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;sparse feature&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Apprentissage profond]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119220</id>
		<title>Attribut creux</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Attribut_creux&amp;diff=119220"/>
		<updated>2026-03-31T19:05:01Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Vecteur d&#039;attributs dont les valeurs sont la plupart nulles ou vides. &lt;br /&gt;
&lt;br /&gt;
Par exemple, un vecteur contenant une seule valeur 1 et un million de valeurs 0 est dit creux. Autre exemple : les mots d&#039;une requête de recherche peuvent aussi être un attribut creux. En effet, il existe de très nombreux mots possibles dans une langue donnée, mais seuls quelques-uns d&#039;entre eux peuvent apparaître dans une requête.&lt;br /&gt;
&lt;br /&gt;
À comparer à la &#039;&#039;&#039;[[caractéristique dense]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;attribut creux&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;caractéristique creuse&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;sparse feature&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Apprentissage profond]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Activation&amp;diff=119212</id>
		<title>Activation</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Activation&amp;diff=119212"/>
		<updated>2026-03-31T18:49:02Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
En IA symbolique, l&#039;activation ou déclenchement d&#039;une règle dont les [[prémisse|conditions]] sont satisfaites entraînant l&#039;exécution de sa conclusion. Par exemple, des ajustements de variables, des ajouts ou modifications à la base de faits, ou l&#039;exécution d&#039;une procédure associée à la règle. &lt;br /&gt;
&lt;br /&gt;
En IA connexionniste, l&#039;activation d&#039;un neurone se produit lorsque le résultat d&#039;un calcul de sortie d&#039;un neurone dépasse un certain seuil. Pour une couche de neurones, on parle d&#039;un vecteur d&#039;activation.&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Inspiré du comportement d&#039;un neurone biologique qui envoie une impulsion électrique le long de l&#039;axone, provoquant la libération de neurotransmetteurs au niveau des synapses à l&#039;extrémité de l&#039;axone.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;activation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;activer&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;déclenchement&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;déclencher&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;décharger&#039;&#039;&#039; &amp;lt;small&amp;gt;&amp;lt;i&amp;gt;(pour les neurones)&amp;lt;/i&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;activation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;(to) activate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;(to) fire&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://www.cs.utexas.edu/users/novak/aivocab.html  Source : Utexas Ai vocabulary ]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=D%C3%A9clencher&amp;diff=119211</id>
		<title>Déclencher</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=D%C3%A9clencher&amp;diff=119211"/>
		<updated>2026-03-31T18:46:06Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page Déclencher vers Activation&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Activation]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Activation&amp;diff=119210</id>
		<title>Activation</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Activation&amp;diff=119210"/>
		<updated>2026-03-31T18:46:06Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page Déclencher vers Activation&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
En IA symbolique, le déclenchement d&#039;une règle dont les [[prémisse|conditions]] sont satisfaites entraînant l&#039;exécution de sa conclusion. Par exemple, des ajustements de variables, des ajouts ou modifications à la base de faits, ou l&#039;exécution d&#039;une procédure associée à la règle. &lt;br /&gt;
&lt;br /&gt;
En IA connexionniste, l&#039;activation d&#039;un neurone se produit lorsque le résultat d&#039;un calcul de sortie d&#039;un neurone dépasse un certain seuil.&lt;br /&gt;
&lt;br /&gt;
== Complément ==&lt;br /&gt;
Inspiré du comportement d&#039;un neurone biologique qui envoie une impulsion électrique le long de l&#039;axone, provoquant la libération de neurotransmetteurs au niveau des synapses à l&#039;extrémité de l&#039;axone.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;déclencher&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;activer&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;décharger&#039;&#039;&#039; &amp;lt;small&amp;gt;&amp;lt;i&amp;gt;(pour les neurones)&amp;lt;/i&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;déclenchement&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;activation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; (to) fire  &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; activate &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://www.cs.utexas.edu/users/novak/aivocab.html  Source : Utexas Ai vocabulary ]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119140</id>
		<title>Taux d&#039;erreur en mots</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119140"/>
		<updated>2026-03-24T19:33:41Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Indicateur qui permet de mesurer les performances d&#039;un système de &#039;&#039;&#039;[[Reconnaissance automatique de la parole|reconnaissance vocale]]&#039;&#039;&#039; ou de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039;, de comparer différents systèmes et d&#039;évaluer les améliorations apportées à un même système.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Il ne fournit aucune précision sur la nature des erreurs.&lt;br /&gt;
&lt;br /&gt;
*&#039;&#039;&#039;Attention&#039;&#039;&#039;: À ne pas confondre avec &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;!&lt;br /&gt;
*Le taux d&#039;erreur sur les mots est dérivé de la &#039;&#039;&#039;[[distance de Levenshtein]]&#039;&#039;&#039;, qui opère au niveau des mots (insertion, omission et substitution) plutôt qu&#039;au niveau des phonèmes. Où 0 indique que les segments de texte comparés sont exactement identiques, et 1 (ou plus) indique qu&#039;ils sont complètement différents et ne présentent aucune similitude.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur en mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur de mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;WER&#039;&#039;&#039; &#039;&#039;(de l&#039;anglais)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Word error rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; WER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;WER stands for Word Error Rate and it is a metric measuring the performance of a speech recognition or machine translation system and comparing different systems as well as for evaluating improvements within one system. It provides no details on the nature of translation errors, and it typically ranges from 0 to 1.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is erived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/tel-01258153/document Christian Gillot (2012) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://www.afcp-parole.org/doc/Archives_JEP/2008_XXVIIe_JEP_Avignon/PDF/avignon2008_pdf/JEP/008_jep_1568.pdf  Razik et al. (2008) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf  Barreaud (2004) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Taux_d%27erreur_de_mots Wikipédia - Taux d&#039;erreur de mots]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Word_error_rate  Wikipedia - Word error rate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119139</id>
		<title>Taux d&#039;erreur en mots</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Taux_d%27erreur_en_mots&amp;diff=119139"/>
		<updated>2026-03-24T19:33:21Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Indicateur qui permet de mesurer les performances d&#039;un système de &#039;&#039;&#039;[[Reconnaissance automatique de la parole|reconnaissance vocale]]&#039;&#039;&#039; ou de &#039;&#039;&#039;[[traduction automatique]]&#039;&#039;&#039;, de comparer différents systèmes et d&#039;évaluer les améliorations apportées à un même système.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Il ne fournit aucune précision sur la nature des erreurs.&lt;br /&gt;
&lt;br /&gt;
*&#039;&#039;&#039;Attention&#039;&#039;&#039;: À ne pas confondre avec &#039;&#039;&#039;[[TER]]&#039;&#039;&#039;!&lt;br /&gt;
*Le taux d&#039;erreur sur les mots est dérivé de la &#039;&#039;&#039;[[distance de Levenshtein]]&#039;&#039;&#039;, qui opère au niveau des mots (insertion, omission et substitution) plutôt qu&#039;au niveau des phonèmes. Où 0 indique que les segments de texte comparés sont exactement identiques, et 1 (ou plus) indique qu&#039;ils sont complètement différents et ne présentent aucune similitude.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur en mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Taux d&#039;erreur de mots&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!--&#039;&#039;&#039;TER&#039;&#039;&#039;--&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;WER&#039;&#039;&#039; &#039;&#039;(de l&#039;anglais)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Word error rate&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; WER&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;WER stands for Word Error Rate and it is a metric measuring the performance of a speech recognition or machine translation system and comparing different systems as well as for evaluating improvements within one system. It provides no details on the nature of translation errors, and it typically ranges from 0 to 1.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;It is erived from the Levenshtein distance, working at the word level instead of the phoneme level. where 0 indicates that the compared pieces of text are exactly identical, and 1 (or larger) indicates that they are completely different with no similarity&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://hal.science/tel-01258153/document Christian Gillot (2012) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://www.afcp-parole.org/doc/Archives_JEP/2008_XXVIIe_JEP_Avignon/PDF/avignon2008_pdf/JEP/008_jep_1568.pdf  Razik et al. (2008) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf  Barreaud (2004) - Taux d&#039;erreur en mots]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Taux_d%27erreur_de_mots Wikipédia - taux d&#039;erreur de mots]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Word_error_rate  Wikipedia - Word error rate]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Implication_textuelle&amp;diff=119131</id>
		<title>Implication textuelle</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Implication_textuelle&amp;diff=119131"/>
		<updated>2026-03-24T19:10:07Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Une inférence textuelle est définie comme une relation entre deux fragments de texte : en lisant le premier, on peut raisonnablement inférer que le second est vrai.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[compréhension du langage naturel]]&#039;&#039;&#039; et &#039;&#039;&#039;[[traitement du langage naturel]]&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Les tâches typiques de l&#039;inférence en langue naturelle comprennent l&#039;établissement de liens entre les entités, la désambiguïsation des entités, l&#039;expansion de la taxonomie, la découverte d&#039;hyperonymes et l&#039;association de textes.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; implication textuelle&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;inférence textuelle&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Natural Language Inference&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; NLI&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Textual Entailment&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Recognizing Textual Entailment&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; TE&#039;&#039;&#039;&lt;br /&gt;
&amp;lt;!--Task that determines the inference relation (entailment, contradiction, or neutral) between two short and ordered texts or text fragments. The relation holds whenever the truth of one text fragment followa from another text. This task is used to infer semantic relations between given phrases. Typical NLI tasks include entity linking, entity disambiguation, taxonomy expansion, hypernym discovery, and text entailment--&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://umontreal.scholaris.ca/items/30f53472-4fae-41f7-b4a9-1b556dba5265 Zhouan Lin (2019) - implication textuelle]&lt;br /&gt;
&lt;br /&gt;
[https://hal.univ-lorraine.fr/tel-01748535 Marilisa Amoia (2008) - implication textuelle]&lt;br /&gt;
&lt;br /&gt;
[https://theses.hal.science/tel-01317577/document  Martin Gleize 2016 - inférence textuelle]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2409.13731   Source : arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://nlp.stanford.edu/projects/snli/   Source : Stanford.edu]&lt;br /&gt;
&lt;br /&gt;
[https://towardsdatascience.com/natural-language-inference-an-overview-57c0eecf6517/   Source : towards data science]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Textual_entailment   Source : Wikipedia]&lt;br /&gt;
&lt;br /&gt;
[https://www.oreilly.com/library/view/natural-language-processing/9780596803346/pr02s07.html Bird et al. (2009) - Recognizing textual entailment]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Recherche_approfondie_assist%C3%A9e_par_l%27IA_g%C3%A9n%C3%A9rative&amp;diff=119114</id>
		<title>Recherche approfondie assistée par l&#039;IA générative</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Recherche_approfondie_assist%C3%A9e_par_l%27IA_g%C3%A9n%C3%A9rative&amp;diff=119114"/>
		<updated>2026-03-24T18:20:47Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Méthode de [[recherche d&#039;informations]] utilisant un [[agent]] basé sur l&#039;[[IA générative]] qui fait une combinaison de [[Recherche d&#039;informations|recherches d&#039;informations]] traditionnelles et de [[Recherche assistée par l&#039;IA générative|recherches assistées par l&#039;IA générative]] avant de produire une synthèse sous la forme d&#039;un rapport de recherche structuré.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La réponse typique est un rapport cohérent et détaillé, et à la fin, elle contient également de nouvelles idées et les sources utilisées pour la synthèse. La recherche approfondie prend plus de temps que la &#039;&#039;&#039;[[Recherche assistée par l&#039;IA générative]]&#039;&#039;&#039; et doit être utilisée lorsque l&#039;utilisateur a besoin d&#039;une analyse plus poussée sur un sujet complexe.&lt;br /&gt;
&lt;br /&gt;
La technique repose sur un ensemble de [[requête générative|requêtes génératives]] spécialisées.&lt;br /&gt;
&lt;br /&gt;
À ne pas confondre avec &#039;&#039;&#039;[[recherche assistée par l&#039;IA générative]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; recherche approfondie assistée par l&#039;IA générative&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche approfondie&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche documentaire approfondie assistée par l&#039;IA générative&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; recherche documentaire approfondie&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; deep research&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; deep research agent&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;AI-enhanced way of searching and synthesizing relevant information by taking the time to read it. The typical output is a coherent report or detailed answer, and at the end, it also contains new ideas. Deep research is more time consuming than deep search and it is to use when the user needs a thorough analysis on a complex topic.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://leehanchung.github.io/blogs/2025/02/26/deep-research/   Source : GitHub.io]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@themeynoush/deep-search-vs-deep-research-what-are-they-and-how-do-they-compare-ac24db023002   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_fondateur&amp;diff=119031</id>
		<title>Modèle fondateur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_fondateur&amp;diff=119031"/>
		<updated>2026-03-17T08:12:24Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Des chercheurs de l&#039;Université Stanford ont proposé le terme modèle fondateur ou modèle de fondation  (de l&#039;anglais &#039;&#039;foundation model&#039;&#039;) pour définir un ensemble de [[grand modèle de langues|grands modèles de langues]] basés sur des architectures de [[réseau autoattentif]] préentraînées sur de très vastes [[corpus]] parfois selon plusieurs modalités (textes, voix, images, etc.).&lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs peuvent être adaptés à un large éventail de tâches. &lt;br /&gt;
&lt;br /&gt;
==Compléments==&lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs constituent un changement radical de paradigme en IA. Ils représentent une augmentation spectaculaire des capacités en termes de précision, de qualité et d&#039;extrapolation à de nouvelles tâches. &lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs présentent également des problèmes évidents d&#039;utilisation à des fins de désinformation, l&#039;exacerbation des biais et le risque d&#039;oligopole de l&#039;[[intelligence artificielle]] entre les mains de quelques entreprises.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr/&amp;gt;&lt;br /&gt;
Bien que le terme &#039;&#039;modèle de fondation&#039;&#039; soit répandu, ce terme est déconseillé par la DGLFLF. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;modèle fondateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle de fondation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle fondationnel&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;foundation model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Español==&lt;br /&gt;
[[Catégorie:es]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039; modelo fundacional &#039;&#039;&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Investigadores de la Universidad de Stanford han propuesto el término modelo fundacional (del inglès fundation model) para definir un conjunto de modelo extenso de languaje basados en arquitecturas de red autoatencional preentrenadas en grandes corpus, a veces utilizando varias modalidades (texto, voz, imágenes, etc.).&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Modelos fundacionales como BERT, GPT-3, LLaMA y DALL-E pueden adaptarse a una amplia gama de tareas.&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&amp;amp;i=1&amp;amp;srchtxt=FOUNDATION+MODEL&amp;amp;index=alt&amp;amp;codom2nd_wet=1#resultrecs   Source : TERMIUM Plus]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Mod%C3%A8le_de_fondation   Source : Wikipédia ]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2108.07258   Source : arxiv ]&lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=dG628PEN1fY   Source : YouTube ]&lt;br /&gt;
&lt;br /&gt;
[https://www.insa-lyon.fr/es/evenement/conference-les-enjeux-des-modeles-de-langage   Source : Conférence INSA]&lt;br /&gt;
&lt;br /&gt;
[https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000050185686   Source : Legifrance - Modèle génératif ]&lt;br /&gt;
{{Modèle:101}}&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:101]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_fondateur&amp;diff=119030</id>
		<title>Modèle fondateur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_fondateur&amp;diff=119030"/>
		<updated>2026-03-17T08:11:51Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Des chercheurs de l&#039;Université Stanford ont proposé le terme modèle fondateur ou modèle de fondation  (de l&#039;anglais &#039;&#039;foundation model&#039;&#039;) pour définir un ensemble de [[grand modèle de langues|grands modèles de langues]] basés sur des architectures de [[réseau autoattentif]] préentraînées sur de très vastes [[corpus]] parfois selon plusieurs modalités (textes, voix, images, etc.).&lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs comme [[BERT]], [[GPT-3]], [[LLaMA]], [[DALL-E]] peuvent être adaptés à un large éventail de tâches. &lt;br /&gt;
&lt;br /&gt;
==Compléments==&lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs constituent un changement radical de paradigme en IA. Ils représentent une augmentation spectaculaire des capacités en termes de précision, de qualité et d&#039;extrapolation à de nouvelles tâches. &lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs présentent également des problèmes évidents d&#039;utilisation à des fins de désinformation, l&#039;exacerbation des biais et le risque d&#039;oligopole de l&#039;[[intelligence artificielle]] entre les mains de quelques entreprises.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr/&amp;gt;&lt;br /&gt;
Bien que le terme &#039;&#039;modèle de fondation&#039;&#039; soit répandu, ce terme est déconseillé par la DGLFLF. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;modèle fondateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle de fondation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle fondationnel&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;foundation model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Español==&lt;br /&gt;
[[Catégorie:es]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039; modelo fundacional &#039;&#039;&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Investigadores de la Universidad de Stanford han propuesto el término modelo fundacional (del inglès fundation model) para definir un conjunto de modelo extenso de languaje basados en arquitecturas de red autoatencional preentrenadas en grandes corpus, a veces utilizando varias modalidades (texto, voz, imágenes, etc.).&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Modelos fundacionales como BERT, GPT-3, LLaMA y DALL-E pueden adaptarse a una amplia gama de tareas.&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&amp;amp;i=1&amp;amp;srchtxt=FOUNDATION+MODEL&amp;amp;index=alt&amp;amp;codom2nd_wet=1#resultrecs   Source : TERMIUM Plus]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Mod%C3%A8le_de_fondation   Source : Wikipédia ]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2108.07258   Source : arxiv ]&lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=dG628PEN1fY   Source : YouTube ]&lt;br /&gt;
&lt;br /&gt;
[https://www.insa-lyon.fr/es/evenement/conference-les-enjeux-des-modeles-de-langage   Source : Conférence INSA]&lt;br /&gt;
&lt;br /&gt;
[https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000050185686   Source : Legifrance - Modèle génératif ]&lt;br /&gt;
{{Modèle:101}}&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:101]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_fondateur&amp;diff=119029</id>
		<title>Modèle fondateur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_fondateur&amp;diff=119029"/>
		<updated>2026-03-17T08:06:58Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Des chercheurs de l&#039;Université Stanford ont proposé le terme modèle fondateur ou modèle de fondation  (de l&#039;anglais &#039;&#039;foundation model&#039;&#039;) pour définir un ensemble de [[grand modèle de langues|grands modèles de langues]] basés sur des architectures de [[réseau autoattentif]] préentraînées sur de vastes [[corpus]] parfois selon plusieurs modalités (textes, voix, images, etc.).&lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs comme [[BERT]], [[GPT-3]], [[LLaMA]], [[DALL-E]] peuvent être adaptés à un large éventail de tâches. &lt;br /&gt;
&lt;br /&gt;
==Compléments==&lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs constituent un changement radical de paradigme en IA. Ils représentent une augmentation spectaculaire des capacités en termes de précision, de qualité et d&#039;extrapolation à de nouvelles tâches. &lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs présentent également des problèmes évidents d&#039;utilisation à des fins de désinformation, l&#039;exacerbation des biais et le risque d&#039;oligopole de l&#039;[[intelligence artificielle]] entre les mains de quelques entreprises.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr/&amp;gt;&lt;br /&gt;
Bien que le terme &#039;&#039;modèle de fondation&#039;&#039; soit répandu, ce terme est déconseillé par la DGLFLF. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;modèle fondateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle de fondation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle fondationnel&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;foundation model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Español==&lt;br /&gt;
[[Catégorie:es]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039; modelo fundacional &#039;&#039;&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Investigadores de la Universidad de Stanford han propuesto el término modelo fundacional (del inglès fundation model) para definir un conjunto de modelo extenso de languaje basados en arquitecturas de red autoatencional preentrenadas en grandes corpus, a veces utilizando varias modalidades (texto, voz, imágenes, etc.).&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Modelos fundacionales como BERT, GPT-3, LLaMA y DALL-E pueden adaptarse a una amplia gama de tareas.&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&amp;amp;i=1&amp;amp;srchtxt=FOUNDATION+MODEL&amp;amp;index=alt&amp;amp;codom2nd_wet=1#resultrecs   Source : TERMIUM Plus]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Mod%C3%A8le_de_fondation   Source : Wikipédia ]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2108.07258   Source : arxiv ]&lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=dG628PEN1fY   Source : YouTube ]&lt;br /&gt;
&lt;br /&gt;
[https://www.insa-lyon.fr/es/evenement/conference-les-enjeux-des-modeles-de-langage   Source : Conférence INSA]&lt;br /&gt;
&lt;br /&gt;
[https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000050185686   Source : Legifrance - Modèle génératif ]&lt;br /&gt;
{{Modèle:101}}&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:101]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_fondateur&amp;diff=119028</id>
		<title>Modèle fondateur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mod%C3%A8le_fondateur&amp;diff=119028"/>
		<updated>2026-03-17T08:03:47Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Des chercheurs de l&#039;Université Stanford ont proposé le terme modèle fondateur ou modèle de fondation  (de l&#039;anglais &#039;&#039;foundation model&#039;&#039;) pour définir un ensemble de [[grand modèle de langues|grands modèles de langues]] basés sur des architectures de [[réseau autoattentif]] préentraînées sur de vastes [[corpus]] parfois selon plusieurs modalités (textes, voix, images, etc.).&lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs comme [[BERT]], [[GPT-3]], [[LLaMA]], [[DALL-E]] peuvent être adaptés à un large éventail de tâches. &lt;br /&gt;
&lt;br /&gt;
==Compléments==&lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs constituent un changement radical de paradigme en IA. Ils représentent une augmentation spectaculaire des capacités en termes de précision, de qualité et d&#039;extrapolation à de nouvelles tâches. &lt;br /&gt;
&lt;br /&gt;
Les modèles fondateurs présentent également des problèmes évidents d&#039;utilisation à des fins de désinformation, l&#039;exacerbation des biais et le risque d&#039;oligopole de l&#039;[[intelligence artificielle]] entre les mains de quelques entreprises.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;hr/&amp;gt;&lt;br /&gt;
Bien que le terme &#039;&#039;modèle de fondation&#039;&#039; soit répandu, ce terme est déconseillé par la DGLFLF. &lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;modèle fondateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle de fondation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;modèle fondationnel&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;foundation model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;frontier model&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Español==&lt;br /&gt;
[[Catégorie:es]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039; modelo fundacional &#039;&#039;&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Investigadores de la Universidad de Stanford han propuesto el término modelo fundacional (del inglès fundation model) para definir un conjunto de modelo extenso de languaje basados en arquitecturas de red autoatencional preentrenadas en grandes corpus, a veces utilizando varias modalidades (texto, voz, imágenes, etc.).&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Modelos fundacionales como BERT, GPT-3, LLaMA y DALL-E pueden adaptarse a una amplia gama de tareas.&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&amp;amp;i=1&amp;amp;srchtxt=FOUNDATION+MODEL&amp;amp;index=alt&amp;amp;codom2nd_wet=1#resultrecs   Source : TERMIUM Plus]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Mod%C3%A8le_de_fondation   Source : Wikipédia ]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/2108.07258   Source : arxiv ]&lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=dG628PEN1fY   Source : YouTube ]&lt;br /&gt;
&lt;br /&gt;
[https://www.insa-lyon.fr/es/evenement/conference-les-enjeux-des-modeles-de-langage   Source : Conférence INSA]&lt;br /&gt;
&lt;br /&gt;
[https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000050185686   Source : Legifrance - Modèle génératif ]&lt;br /&gt;
{{Modèle:101}}&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:101]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=D%C3%A9vEx&amp;diff=119013</id>
		<title>DévEx</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=D%C3%A9vEx&amp;diff=119013"/>
		<updated>2026-03-16T19:16:09Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Définition ==&lt;br /&gt;
Travail conjoint  des équipes de développement logiciel et d&#039;exploitation des infrastructures informatiques au fil des étapes d&#039;un processus continu et itératif correspondant au cycle de vie automatisé du développement logiciel.&lt;br /&gt;
&lt;br /&gt;
== Compléments == &lt;br /&gt;
Le développement et exploitation repose typiquement sur des pratiques et des démarches associées à l&#039;agilité, comme les tests automatisés, l&#039;intégration continue, le déploiement continu et la livraison continue.&lt;br /&gt;
&lt;br /&gt;
Le développement et l&#039;exploitation s&#039;est généralisée avec l&#039;apparition de l&#039;[[infonuagique]].  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; DévEx &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;  développement et exploitation &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; DevOps&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;development and operations&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26530087/developpement-et-exploitation OQLF, Développement et exploitation]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Devops  Wikipédia - Devops]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/DevOps  Wikipedia - DevOps]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=D%C3%A9vEx&amp;diff=119012</id>
		<title>DévEx</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=D%C3%A9vEx&amp;diff=119012"/>
		<updated>2026-03-16T19:13:17Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Définition ==&lt;br /&gt;
Travail conjoint  des équipes de développement logiciel et d&#039;exploitation des infrastructures informatiques au fil des étapes d&#039;un processus continu et itératif correspondant au cycle de vie du développement logiciel.&lt;br /&gt;
&lt;br /&gt;
== Compléments == &lt;br /&gt;
Le développement et exploitation repose typiquement sur des pratiques et des démarches associées à l&#039;agilité, comme les tests automatisés, l&#039;intégration continue, le déploiement continu et la livraison continue.&lt;br /&gt;
&lt;br /&gt;
Le développement et l&#039;exploitation s&#039;est généralisée avec l&#039;apparition de l&#039;[[infonuagique]].  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; DévEx &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;  développement et exploitation &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; DevOps&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;development and operations&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26530087/developpement-et-exploitation OQLF, Développement et exploitation]&lt;br /&gt;
&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Devops  Wikipédia - Devops]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/DevOps  Wikipedia - DevOps]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=D%C3%A9vEx&amp;diff=119011</id>
		<title>DévEx</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=D%C3%A9vEx&amp;diff=119011"/>
		<updated>2026-03-16T19:12:47Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Définition ==&lt;br /&gt;
Travail conjoint  des équipes de développement logiciel et d&#039;exploitation des infrastructures informatiques au fil des étapes d&#039;un processus continu et itératif correspondant au cycle de vie du développement logiciel.&lt;br /&gt;
&lt;br /&gt;
== Compléments == &lt;br /&gt;
Le développement et exploitation repose typiquement sur des pratiques et des démarches associées à l&#039;agilité, comme les tests automatisés, l&#039;intégration continue, le déploiement continu et la livraison continue.&lt;br /&gt;
&lt;br /&gt;
Le développement et l&#039;exploitation s&#039;est généralisée avec l&#039;apparition de l&#039;[[infonuagique]].  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; DévEx &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;  développement et exploitation &#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; DevOps&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;development and operations&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
[https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26530087/developpement-et-exploitation OQLF, Développement et exploitation]&lt;br /&gt;
&lt;br /&gt;
[Devops  Wikipédia - Devops]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/DevOps  Wikipedia - DevOps]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Agent&amp;diff=119006</id>
		<title>Agent</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Agent&amp;diff=119006"/>
		<updated>2026-03-16T18:55:08Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Un agent (du latin &#039;&#039;agere&#039;&#039; : agir) est une entité physique ou virtuelle, pilotée par un logiciel. Il agit de façon, au moins partiellement, [[Système d&#039;IA autonome|autonome]] dans un environnement. L’agent accomplit une tâche à la manière d’un automate en fonction de ce que lui a demandé son auteur. La notion d’agent est à la base de l’[[apprentissage par renforcement]].&lt;br /&gt;
&lt;br /&gt;
Notez que dans certains systèmes qui comportent plusieurs agents, appelés systèmes [[Multiagent|multiagents]], un agent peut être un processus, un robot, un être humain, etc., qui interagit selon certaines conditions.&lt;br /&gt;
&lt;br /&gt;
==Compléments==&lt;br /&gt;
&lt;br /&gt;
On appelle agent une entité physique ou virtuelle :&lt;br /&gt;
&lt;br /&gt;
*qui est capable d&#039;agir dans un environnement ;&lt;br /&gt;
*qui peut communiquer directement avec d&#039;autres agents ;&lt;br /&gt;
*qui est mue par un ensemble de tendances (sous forme d&#039;objectifs individuels ou d&#039;une fonction de satisfaction, voire de survie, qu&#039;elle cherche à optimiser) ;&lt;br /&gt;
*qui possède des ressources propres ;&lt;br /&gt;
*qui est capable de percevoir (mais de manière limitée) son environnement ;&lt;br /&gt;
*qui ne dispose que d&#039;une représentation partielle de cet environnement (et éventuellement aucune) ;&lt;br /&gt;
*qui possède des compétences et offre des services ;&lt;br /&gt;
*qui peut éventuellement se reproduire.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;agent&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;agent logiciel&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;agent&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;software agent&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Español==&lt;br /&gt;
[[Catégorie:es]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;agente&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;agente software&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;agente de software &#039;&#039;&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Un agente (del latín agere: actuar) es una entidad física o virtual controlada por un programa informático. Actúa de forma al menos parcialmente autónoma en un entorno. El agente realiza tareas a la manera de un autómata, según lo que su autor le ha pedido que haga. El concepto de agente es la base del aprendizaje por refuerzo.&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Nótese que en algunos sistemas con varios agentes, llamados sistemas multiagente, un agente puede ser un proceso, un robot, un ser humano, etc., que interactúa en determinadas condiciones.&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Agent_logiciel Source: Wikipedia, &#039;&#039;Agent logiciel&#039;&#039;]&lt;br /&gt;
&lt;br /&gt;
[https://datafranca.org/wiki/images/50_termes_de_l&#039;IA-2025.pdf   Source : DGLF ]&lt;br /&gt;
&lt;br /&gt;
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&amp;amp;i=1&amp;amp;srchtxt=AGENT+LOGICIEL&amp;amp;codom2nd_wet=1#resultrecs   Source : TERMIUM Plus]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/small&amp;gt;&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
{{Modèle:101}}&lt;br /&gt;
&lt;br /&gt;
{{Modèle:GDT}}&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GDT]]&lt;br /&gt;
[[Catégorie:ENGLISH]]&lt;br /&gt;
[[category:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:101]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Agent&amp;diff=119004</id>
		<title>Agent</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Agent&amp;diff=119004"/>
		<updated>2026-03-16T18:53:54Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Définition==&lt;br /&gt;
Un agent (du latin &#039;&#039;agere&#039;&#039; : agir) est une entité physique ou virtuelle, pilotée par un logiciel. Il agit de façon, au moins partiellement, [[Système d&#039;IA autonome|autonome]] dans un environnement. L’agent accomplit des tâches ou actions à la manière d’un automate en fonction de ce que lui a demandé son auteur. La notion d’agent est à la base de l’[[apprentissage par renforcement]].&lt;br /&gt;
&lt;br /&gt;
Notez que dans certains systèmes qui comportent plusieurs agents, appelés systèmes [[Multiagent|multiagents]], un agent peut être un processus, un robot, un être humain, etc., qui interagit selon certaines conditions.&lt;br /&gt;
&lt;br /&gt;
==Compléments==&lt;br /&gt;
&lt;br /&gt;
On appelle agent une entité physique ou virtuelle :&lt;br /&gt;
&lt;br /&gt;
*qui est capable d&#039;agir dans un environnement ;&lt;br /&gt;
*qui peut communiquer directement avec d&#039;autres agents ;&lt;br /&gt;
*qui est mue par un ensemble de tendances (sous forme d&#039;objectifs individuels ou d&#039;une fonction de satisfaction, voire de survie, qu&#039;elle cherche à optimiser) ;&lt;br /&gt;
*qui possède des ressources propres ;&lt;br /&gt;
*qui est capable de percevoir (mais de manière limitée) son environnement ;&lt;br /&gt;
*qui ne dispose que d&#039;une représentation partielle de cet environnement (et éventuellement aucune) ;&lt;br /&gt;
*qui possède des compétences et offre des services ;&lt;br /&gt;
*qui peut éventuellement se reproduire.&lt;br /&gt;
&lt;br /&gt;
==Français==&lt;br /&gt;
&#039;&#039;&#039;agent&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;agent logiciel&#039;&#039;&#039;     &lt;br /&gt;
&lt;br /&gt;
==Anglais==&lt;br /&gt;
&#039;&#039;&#039;agent&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;software agent&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==Español==&lt;br /&gt;
[[Catégorie:es]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;agente&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;agente software&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;agente de software &#039;&#039;&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Un agente (del latín agere: actuar) es una entidad física o virtual controlada por un programa informático. Actúa de forma al menos parcialmente autónoma en un entorno. El agente realiza tareas a la manera de un autómata, según lo que su autor le ha pedido que haga. El concepto de agente es la base del aprendizaje por refuerzo.&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Nótese que en algunos sistemas con varios agentes, llamados sistemas multiagente, un agente puede ser un proceso, un robot, un ser humano, etc., que interactúa en determinadas condiciones.&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
[https://fr.wikipedia.org/wiki/Agent_logiciel Source: Wikipedia, &#039;&#039;Agent logiciel&#039;&#039;]&lt;br /&gt;
&lt;br /&gt;
[https://datafranca.org/wiki/images/50_termes_de_l&#039;IA-2025.pdf   Source : DGLF ]&lt;br /&gt;
&lt;br /&gt;
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&amp;amp;i=1&amp;amp;srchtxt=AGENT+LOGICIEL&amp;amp;codom2nd_wet=1#resultrecs   Source : TERMIUM Plus]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/small&amp;gt;&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
{{Modèle:101}}&lt;br /&gt;
&lt;br /&gt;
{{Modèle:GDT}}&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GDT]]&lt;br /&gt;
[[Catégorie:ENGLISH]]&lt;br /&gt;
[[category:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:101]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_de_masse_p&amp;diff=118784</id>
		<title>Échantillonnage à troncature de masse p</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_de_masse_p&amp;diff=118784"/>
		<updated>2026-03-11T06:46:18Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d&#039;un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil &#039;&#039;p&#039;&#039; défini (la &#039;&#039;masse de probabilité&#039;&#039;) également appelée &#039;&#039;noyau&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage à troncature k fixe]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette stratégie d&#039;échantillonnage est utilisée par les [[grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un [[segment textuel]] parmi un ensemble de [[segment textuel|segments textuels]]. &lt;br /&gt;
&lt;br /&gt;
Alors que l&#039;[[échantillonnage à troncature k fixe]] limite l&#039;échantillon à un nombre &#039;&#039;k&#039;&#039; fixe de mots, l&#039;échantillonnage à troncature de masse p spécifie une probabilité cumulée &#039;&#039;p&#039;&#039; entre 0 et 1 et on échantillonne parmi un nombre variable de [[segment textuel|segments textuels]] dont la somme des probabilités atteint ou dépasse p. &lt;br /&gt;
&lt;br /&gt;
En pratique, l&#039;échantillonnage à troncature de masse p est préféré à l&#039;[[échantillonnage à troncature k fixe]] car il est plus adaptatif. &lt;br /&gt;
&lt;br /&gt;
Notez qu&#039;il est généralement recommandé de spécifier soit la &#039;&#039;&#039;[[température]]&#039;&#039;&#039;, soit le paramètre &#039;&#039;p&#039;&#039;, mais pas les deux.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Échantillonnage à troncature de masse p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage des p-meilleurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage du noyau&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par troncature dynamique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par seuil de probabilité cumulée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage top-p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Top-p sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Nucleus sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Stochastic decoding strategy for generating sequences form autoregressive probabilistic models that introduces randomness while maintaining quality. The choice of p can significantly influence the generated text. Its core idea is to sample from a smaller, more credible set of tokens at each step (called the nucleus). It is useful when you want more adaptative and context-sensitive text generation. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;In practice, top-p sampling is often preferred over top-k because it’s adaptive. It is generally recommended to specify either the temperature or the top_p parameter, but not both.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342 Medium - Top-k sampling, Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling#Top-k_sampling  Wikipedia - Top-k sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling Wikipedia - Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT: echantillonnage des p}}&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_de_masse_p&amp;diff=118783</id>
		<title>Échantillonnage à troncature de masse p</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_de_masse_p&amp;diff=118783"/>
		<updated>2026-03-11T06:45:57Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d&#039;un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil &#039;&#039;p&#039;&#039; défini (la &#039;&#039;masse de probabilité&#039;&#039;) également appelée &#039;&#039;noyau&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.&lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[échantillonnage à troncature k fixe]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette stratégie d&#039;échantillonnage est utilisée par les [[grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un [[segment textuel]] parmi un ensemble de [[segment textuel|segments textuels]]. &lt;br /&gt;
&lt;br /&gt;
Alors que l&#039;[[échantillonnage à troncature k fixe]] limite l&#039;échantillon à un nombre &#039;&#039;k&#039;&#039; fixe de mots, l&#039;échantillonnage à troncature de masse p spécifie une probabilité cumulée &#039;&#039;p&#039;&#039; entre 0 et 1 et on échantillonne parmi un nombre variable de [[segment textuel|segments textuels]] dont la somme des probabilités atteint ou dépasse p. &lt;br /&gt;
&lt;br /&gt;
En pratique, l&#039;échantillonnage à troncature de masse p est préféré à l&#039;[[échantillonnage à troncature k fixe]] car il est plus adaptatif. &lt;br /&gt;
&lt;br /&gt;
Notez qu&#039;il est généralement recommandé de spécifier soit la &#039;&#039;&#039;[[température]]&#039;&#039;&#039;, soit le paramètre &#039;&#039;p&#039;&#039;, mais pas les deux.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Échantillonnage à troncature de masse p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage des p-meilleurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage du noyau&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par troncature dynamique&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage par seuil de probabilité cumulée&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage top-p&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Top-p sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Nucleus sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Stochastic decoding strategy for generating sequences form autoregressive probabilistic models that introduces randomness while maintaining quality. The choice of p can significantly influence the generated text. Its core idea is to sample from a smaller, more credible set of tokens at each step (called the nucleus). It is useful when you want more adaptative and context-sensitive text generation. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;In practice, top-p sampling is often preferred over top-k because it’s adaptive. It is generally recommended to specify either the temperature or the top_p parameter, but not both.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342 Medium - Top-k sampling, Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling#Top-k_sampling  Wikipedia - Top-k sampling]&lt;br /&gt;
]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling Wikipedia - Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:Intelligence artificielle]]&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT: echantillonnage des p}}&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_k_fixe&amp;diff=118782</id>
		<title>Échantillonnage à troncature k fixe</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=%C3%89chantillonnage_%C3%A0_troncature_k_fixe&amp;diff=118782"/>
		<updated>2026-03-11T06:44:26Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
&lt;br /&gt;
Stratégie d&#039;échantillonnage qui prélève un élément parmi un nombre fixe &#039;&#039;k&#039;&#039; des meilleurs éléments d&#039;un ensemble. La valeur de &#039;&#039;k&#039;&#039; reste constante, &lt;br /&gt;
&lt;br /&gt;
Ceci signifie que la méthode ne s&#039;adapte pas au contexte, ce qui a conduit à l&#039;&#039;&#039;&#039;[[échantillonnage à troncature de masse p]]&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
Cette stratégie d&#039;échantillonnage est utilisée par les [[Grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un segment parmi un nombre fixe &#039;&#039;k&#039;&#039; de &#039;&#039;&#039;[[Segment textuel|segments textuels]]&#039;&#039;&#039;. La valeur de &#039;&#039;k&#039;&#039; reste constante, ce qui signifie que la méthode ne s&#039;adapte pas au contexte du texte généré. &lt;br /&gt;
&lt;br /&gt;
Une valeur &#039;&#039;k&#039;&#039; plus petite rendra le résultat plus ciblé mais moins créatif, tandis qu&#039;une valeur &#039;&#039;k&#039;&#039; plus grande rendra le résultat plus diversifié mais potentiellement moins pertinent.&lt;br /&gt;
&lt;br /&gt;
Cette limitation a conduit à l&#039;&#039;&#039;&#039;[[échantillonnage à troncature de masse p]]&#039;&#039;&#039;.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Le terme « échantillonnage à troncature &#039;&#039;k&#039;&#039; fixe » est plus exact que terme « échantillonnage des &#039;&#039;k&#039;&#039; meilleurs » car elle définit l&#039;action algorithmique (la troncature) plutôt que simplement le résultat.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Attention: À ne pas confondre avec la &#039;&#039;&#039;[[température]]&#039;&#039;&#039; d&#039;un grand modèle de langues.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage à troncature k fixe&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage parmi les k meilleurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Échantillonnage Top-k&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Top-k sampling&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Sampling strategy that always samples from a fixed number of tokens, which may be too restrictive or too broad depending on the context. The value of K remains constant, meaning the method isn&#039;t adaptive to the context of the text being generated, which led to top-p sampling.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A smaller K will make the output more focused but less creative, while a larger K will make the output more diverse but potentially less relevant.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://medium.com/thinking-sand/the-top-k-and-top-p-parameters-explained-bfaecc8cd342   Source : Medium - Top-k sampling, Top-p sampling]&lt;br /&gt;
&lt;br /&gt;
[https://en.wikipedia.org/wiki/Top-p_sampling#Top-k_sampling  Wikipedia - Top-k sampling]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=118781</id>
		<title>Adaptation au locuteur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=118781"/>
		<updated>2026-03-11T06:34:52Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Processus derrière le &#039;&#039;&#039;[[clonage vocal]]&#039;&#039;&#039; qui aide à gérer les difficultés liées à la variabilité de la parole résultant de différents styles d&#039;élocution, d&#039;accents et de conditions acoustiques. Ce processus &#039;&#039;&#039;[[Peaufinage|peaufine]]&#039;&#039;&#039; un &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039; de &#039;&#039;&#039;[[Synthèse de la parole|synthèse vocale]]&#039;&#039;&#039; afin de reproduire la voix d&#039;un utilisateur spécifique à partir d&#039;une quantité de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; limitées. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[clonage vocal en quelques coups]]&#039;&#039;&#039; et &#039;&#039;&#039;[[clonage vocal zéro-coup]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Adaptation au locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation du locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation à l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation de l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Speaker Adaptation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Process behind voice cloning that helps to handle speech variability difficulties from different speaking styles, accents, and acoustic conditions. This process fine-tunes a text-to-speech model to replicate a specific user’s voice using this limited data. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://www.isca-archive.org/jep_2022/wadoux22_jep.pdf Conférence JEP2002 - Adaptation au locuteur]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/2505.00579   Arxiv - Speaker Adaptation]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=118780</id>
		<title>Adaptation au locuteur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=118780"/>
		<updated>2026-03-11T06:33:39Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Processus derrière le &#039;&#039;&#039;[[clonage vocal]]&#039;&#039;&#039; qui aide à gérer les difficultés liées à la variabilité de la parole résultant de différents styles d&#039;élocution, d&#039;accents et de conditions acoustiques. Ce processus &#039;&#039;&#039;[[Peaufinage|peaufine]]&#039;&#039;&#039; un &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039; de &#039;&#039;&#039;[[Synthèse de la parole|synthèse vocale]]&#039;&#039;&#039; afin de reproduire la voix d&#039;un utilisateur spécifique à partir de ces &#039;&#039;&#039;[[données]]&#039;&#039;&#039; limitées. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[clonage vocal en quelques coups]]&#039;&#039;&#039; et &#039;&#039;&#039;[[clonage vocal zéro-coup]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Adaptation au locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation du locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation à l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation de l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Speaker Adaptation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Process behind voice cloning that helps to handle speech variability difficulties from different speaking styles, accents, and acoustic conditions. This process fine-tunes a text-to-speech model to replicate a specific user’s voice using this limited data. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://www.isca-archive.org/jep_2022/wadoux22_jep.pdf Conférence JEP2002 - Adaptation au locuteur]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/2505.00579   Arxiv - Speaker Adaptation]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=118779</id>
		<title>Adaptation au locuteur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=118779"/>
		<updated>2026-03-11T06:32:08Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Processus derrière le &#039;&#039;&#039;[[clonage vocal]]&#039;&#039;&#039; qui aide à gérer les difficultés liées à la variabilité de la parole résultant de différents styles d&#039;élocution, d&#039;accents et de conditions acoustiques. Ce processus &#039;&#039;&#039;[[Peaufinage|peaufine]]&#039;&#039;&#039; un &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039; de &#039;&#039;&#039;[[Synthèse de la parole|synthèse vocale]]&#039;&#039;&#039; afin de reproduire la voix d&#039;un utilisateur spécifique à partir de ces &#039;&#039;&#039;[[données]]&#039;&#039;&#039; limitées. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[clonage vocal en quelques coups]]&#039;&#039;&#039; et &#039;&#039;&#039;[[clonage vocal zéro-coup]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Adaptation au locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation du locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation à l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation de l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Speaker Adaptation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Process behind voice cloning that helps to handle speech variability difficulties from different speaking styles, accents, and acoustic conditions. This process fine-tunes a text-to-speech model to replicate a specific user’s voice using this limited data. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://www.afcp-parole.org/doc/Archives_JEP/2002_XXIVe_JEP_Nancy/JEP2002/papiers/87.pdf Conférence JEP2002 - Adaptation au locuteur]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/2505.00579   Arxiv - Speaker Adaptation]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=118778</id>
		<title>Adaptation au locuteur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Adaptation_au_locuteur&amp;diff=118778"/>
		<updated>2026-03-11T06:25:52Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Processus derrière le &#039;&#039;&#039;[[clonage vocal]]&#039;&#039;&#039; qui aide à gérer les difficultés liées à la variabilité de la parole résultant de différents styles d&#039;élocution, d&#039;accents et de conditions acoustiques. Ce processus &#039;&#039;&#039;[[Peaufinage|peaufine]]&#039;&#039;&#039; un &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039; de &#039;&#039;&#039;[[Synthèse de la parole|synthèse vocale]]&#039;&#039;&#039; afin de reproduire la voix d&#039;un utilisateur spécifique à partir de ces &#039;&#039;&#039;[[données]]&#039;&#039;&#039; limitées. &lt;br /&gt;
&lt;br /&gt;
Voir aussi &#039;&#039;&#039;[[clonage vocal en quelques coups]]&#039;&#039;&#039; et &#039;&#039;&#039;[[clonage vocal zéro-coup]]&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039; Adaptation au locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation du locuteur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation à l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; Adaptation de l&#039;utilisateur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;Speaker Adaptation&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Process behind voice cloning that helps to handle speech variability difficulties from different speaking styles, accents, and acoustic conditions. This process fine-tunes a text-to-speech model to replicate a specific user’s voice using this limited data. &#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
&lt;br /&gt;
[https://inria.hal.science/hal-04223354/file/guennec23_ssw.pdf HAL Science - Adaptation au locuteur]&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/2505.00579   Arxiv - Speaker Adaptation]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118777</id>
		<title>Mixture de profondeurs de calcul</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118777"/>
		<updated>2026-03-11T06:24:09Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;optimisation de [[modèle d&#039;apprentissage|modèles d&#039;apprentissage]] où le modèle décide dynamiquement, pour chaque élément traité (par exemple, un [[segment textuel]]), d&#039;utiliser ou non une couche du modèle. &lt;br /&gt;
&lt;br /&gt;
Les éléments jugés prioritaires, souvent via un [[échantillonnage à troncature k fixe]], traversent la couche sans calcul, tandis que les autres passent par une [[connexion résiduelle]], réduisant la quantité de calculs sans trop sacrifier sur les performances.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La mixture de profondeurs de calcul fait référence à des architectures qui, à chaque &#039;&#039;&#039;[[Couche de neurones|couche]]&#039;&#039;&#039; du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039;, sélectionne un sous-ensemble de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; d&#039;entrées à traiter, tandis que les autres sont soit ignorées, soit transmises sans modification. Ceci permet donc au modèle de distribuer les ressources de calcul de façon dynamique en fonction de leur importance.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
L&#039;inspiration terminologique de l&#039;architecture &#039;&#039;&#039;[[mixture d&#039;experts]]&#039;&#039;&#039; apparaît pour le moins étriquée, car il s&#039;agit d&#039;un seul expert au lieu de plusieurs. &lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Cette technique peut être appliquée sur des &#039;&#039;&#039;[[Réseau autoattentif|réseaux autoattentifs]]&#039;&#039;&#039; (&#039;&#039;transformers&#039;&#039; en anglais), des &#039;&#039;&#039;[[Réseau autoattentif pour la vision|réseaux autoattentifs pour la vision]]&#039;&#039;&#039;, des &#039;&#039;&#039;[[Réseau convolutif|réseaux convolutifs]]&#039;&#039;&#039; et sur des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle multimodal|multimodaux]]&#039;&#039;&#039;.&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs de calcul&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Mixture-of-Depths&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; MoD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2404.02258   Arxiv - Mixture-of-Depths ]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/mixture-of-depths-mod Emergent Mind - Mixture-of-Depths]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@simeon.emanuilov/mixture-of-depths-a-new-approach-to-efficiently-allocate-compute-in-transformer-language-models-15b0d32ff501  Medium - Mixture-of-Depths]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118765</id>
		<title>Mixture de profondeurs de calcul</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118765"/>
		<updated>2026-03-10T23:38:04Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;optimisation de [[modèle d&#039;apprentissage|modèles d&#039;apprentissage]] où le modèle décide dynamiquement, pour chaque élément traité (par exemple, un [[segment textuel]]), d&#039;utiliser ou non une couche du modèle. &lt;br /&gt;
&lt;br /&gt;
Les éléments jugés prioritaires, souvent via un [[échantillonnage à troncature k fixe]], traversent la couche sans calcul, tandis que les autres passent par une [[connexion résiduelle]], réduisant la quantité de calculs sans trop sacrifier sur les performances.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La mixture de profondeurs de calcul fait référence à des architectures qui, à chaque &#039;&#039;&#039;[[Couche de neurones|couche]]&#039;&#039;&#039; du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039;, sélectionne un sous-ensemble de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; d&#039;entrées à traiter, tandis que les autres sont soit ignorées, soit transmises sans modification. Ceci permet donc au modèle de distribuer les ressources de calcul de façon dynamique en fonction de leur importance.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
L&#039;inspiration terminologique de l&#039;architecture &#039;&#039;&#039;[[mixture d&#039;experts]]&#039;&#039;&#039; apparaît pour le moins étriquée, car il s&#039;agit d&#039;un seul expert au lieu de plusieurs. &lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Cette technique peut être appliquée sur des &#039;&#039;&#039;[[Réseau autoattentif|réseaux autoattentifs]]&#039;&#039;&#039; (&#039;&#039;transformers&#039;&#039; en anglais), des &#039;&#039;&#039;[[Réseau autoattentif pour la vision|réseaux autoattentifs pour la vision]]&#039;&#039;&#039;, des &#039;&#039;&#039;[[Réseau convolutif|réseaux convolutifs]]&#039;&#039;&#039; et sur des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle multimodal|multimodaux]]&#039;&#039;&#039;.&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs de calcul&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Mixture-of-Depths&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; MoD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2404.02258   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/mixture-of-depths-mod   Source : Emergent Mind]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@simeon.emanuilov/mixture-of-depths-a-new-approach-to-efficiently-allocate-compute-in-transformer-language-models-15b0d32ff501   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118764</id>
		<title>Mixture de profondeurs de calcul</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118764"/>
		<updated>2026-03-10T23:37:22Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;optimisation de [[modèle d&#039;apprentissage|modèles d&#039;apprentissage]] où le modèle décide dynamiquement, pour chaque élément traité (par exemple, un [[segment textuel]]), d&#039;utiliser ou non une couche du modèle. &lt;br /&gt;
&lt;br /&gt;
Les éléments jugés prioritaires souvent via un [[échantillonnage à troncature k fixe]] traversent la couche, tandis que les autres passent par une [[connexion résiduelle]], réduisant la quantité de calculs sans trop sacrifier sur les performances.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La mixture de profondeurs de calcul fait référence à des architectures qui, à chaque &#039;&#039;&#039;[[Couche de neurones|couche]]&#039;&#039;&#039; du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039;, sélectionne un sous-ensemble de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; d&#039;entrées à traiter, tandis que les autres sont soit ignorées, soit transmises sans modification. Ceci permet donc au modèle de distribuer les ressources de calcul de façon dynamique en fonction de leur importance.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
L&#039;inspiration terminologique de l&#039;architecture &#039;&#039;&#039;[[mixture d&#039;experts]]&#039;&#039;&#039; apparaît pour le moins étriquée, car il s&#039;agit d&#039;un seul expert au lieu de plusieurs. &lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Cette technique peut être appliquée sur des &#039;&#039;&#039;[[Réseau autoattentif|réseaux autoattentifs]]&#039;&#039;&#039; (&#039;&#039;transformers&#039;&#039; en anglais), des &#039;&#039;&#039;[[Réseau autoattentif pour la vision|réseaux autoattentifs pour la vision]]&#039;&#039;&#039;, des &#039;&#039;&#039;[[Réseau convolutif|réseaux convolutifs]]&#039;&#039;&#039; et sur des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle multimodal|multimodaux]]&#039;&#039;&#039;.&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs de calcul&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Mixture-of-Depths&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; MoD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2404.02258   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/mixture-of-depths-mod   Source : Emergent Mind]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@simeon.emanuilov/mixture-of-depths-a-new-approach-to-efficiently-allocate-compute-in-transformer-language-models-15b0d32ff501   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118763</id>
		<title>Mixture de profondeurs de calcul</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118763"/>
		<updated>2026-03-10T22:50:53Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;optimisation de [[modèle d&#039;apprentissage|modèles d&#039;apprentissage]] où le modèle décide dynamiquement, pour chaque élément traité (par exemple, un [[gedment textuel]]), d&#039;utiliser ou non une couche du modèle. &lt;br /&gt;
&lt;br /&gt;
Les éléments jugés prioritaires souvent via un [[échantillonnage à troncature k fixe]] traversent la couche, tandis que les autres passent par une [[connexion résiduelle]], réduisant la quantité de calculs sans trop sacrifier sur les performances.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La mixture de profondeurs de calcul fait référence à des architectures qui, à chaque &#039;&#039;&#039;[[Couche de neurones|couche]]&#039;&#039;&#039; du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039;, sélectionne un sous-ensemble de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; d&#039;entrées à traiter, tandis que les autres sont soit ignorées, soit transmises sans modification. Ceci permet donc au modèle de distribuer les ressources de calcul de façon dynamique en fonction de leur importance.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
L&#039;inspiration terminologique de l&#039;architecture &#039;&#039;&#039;[[mixture d&#039;experts]]&#039;&#039;&#039; apparaît pour le moins étriquée, car il s&#039;agit d&#039;un seul expert au lieu de plusieurs. &lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Cette technique peut être appliquée sur des &#039;&#039;&#039;[[Réseau autoattentif|réseaux autoattentifs]]&#039;&#039;&#039; (&#039;&#039;transformers&#039;&#039; en anglais), des &#039;&#039;&#039;[[Réseau autoattentif pour la vision|réseaux autoattentifs pour la vision]]&#039;&#039;&#039;, des &#039;&#039;&#039;[[Réseau convolutif|réseaux convolutifs]]&#039;&#039;&#039; et sur des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle multimodal|multimodaux]]&#039;&#039;&#039;.&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs de calcul&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Mixture-of-Depths&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; MoD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2404.02258   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/mixture-of-depths-mod   Source : Emergent Mind]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@simeon.emanuilov/mixture-of-depths-a-new-approach-to-efficiently-allocate-compute-in-transformer-language-models-15b0d32ff501   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118762</id>
		<title>Mixture de profondeurs de calcul</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118762"/>
		<updated>2026-03-10T22:50:09Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;optimisation de [[modèle d&#039;apprentissage|modèles d&#039;apprentissage]] où le modèle décide dynamiquement, pour chaque élément traité (par exemple, un [[gedment textuel]]), d&#039;utiliser ou non une couche du modèle. &lt;br /&gt;
&lt;br /&gt;
Les éléments jugés prioritaires souvent via un [[échantillonnage à troncature k fixe]] traversent la couche, tandis que les autres passent par une [[connexion résiduelle]], réduisant la quantité de calculs sans trop sacrifier sur les performances.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La mixture de profondeurs de calcul fait référence à des architectures qui, à chaque &#039;&#039;&#039;[[Couche de neurones|couche]]&#039;&#039;&#039; du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039;, sélectionne un sous-ensemble de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; d&#039;entrées à traiter, tandis que les autres sont soit ignorées, soit transmises sans modification. Ceci permet donc au modèle de distribuer les ressources de calcul de façon dynamique en fonction de leur importance.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
L&#039;inspiration par l&#039;architecture &#039;&#039;&#039;[[mixture d&#039;experts]]&#039;&#039;&#039; apparaît pour le moins étriquée, car il s&#039;agit d&#039;un seul expert au lieu de plusieurs. &lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Cette technique peut être appliquée sur des &#039;&#039;&#039;[[Réseau autoattentif|réseaux autoattentifs]]&#039;&#039;&#039; (&#039;&#039;transformers&#039;&#039; en anglais), des &#039;&#039;&#039;[[Réseau autoattentif pour la vision|réseaux autoattentifs pour la vision]]&#039;&#039;&#039;, des &#039;&#039;&#039;[[Réseau convolutif|réseaux convolutifs]]&#039;&#039;&#039; et sur des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle multimodal|multimodaux]]&#039;&#039;&#039;.&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs de calcul&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Mixture-of-Depths&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; MoD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2404.02258   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/mixture-of-depths-mod   Source : Emergent Mind]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@simeon.emanuilov/mixture-of-depths-a-new-approach-to-efficiently-allocate-compute-in-transformer-language-models-15b0d32ff501   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;br /&gt;
[[Catégorie:Publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=MoD&amp;diff=118761</id>
		<title>MoD</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=MoD&amp;diff=118761"/>
		<updated>2026-03-10T22:49:41Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Page redirigée vers Mixture de profondeurs de calcul&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Mixture de profondeurs de calcul]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture-of-Depths&amp;diff=118760</id>
		<title>Mixture-of-Depths</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture-of-Depths&amp;diff=118760"/>
		<updated>2026-03-10T22:49:15Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Destination de redirection modifiée de Mixture de profondeurs en Mixture de profondeurs de calcul&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Mixture de profondeurs de calcul]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs&amp;diff=118759</id>
		<title>Mixture de profondeurs</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs&amp;diff=118759"/>
		<updated>2026-03-10T22:48:35Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page Mixture de profondeurs vers Mixture de profondeurs de calcul&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Mixture de profondeurs de calcul]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118758</id>
		<title>Mixture de profondeurs de calcul</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118758"/>
		<updated>2026-03-10T22:48:34Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page Mixture de profondeurs vers Mixture de profondeurs de calcul&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;optimisation de [[modèle d&#039;apprentissage|modèles d&#039;apprentissage]] où le modèle décide dynamiquement, pour chaque élément traité (par exemple, un [[gedment textuel]]), d&#039;utiliser ou non une couche du modèle. &lt;br /&gt;
&lt;br /&gt;
Les éléments jugés prioritaires souvent via un [[échantillonnage à troncature k fixe]] traversent la couche, tandis que les autres passent par une [[connexion résiduelle]], réduisant la quantité de calculs sans trop sacrifier sur les performances.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La mixture de profondeurs de calcul fait référence à des architectures qui, à chaque &#039;&#039;&#039;[[Couche de neurones|couche]]&#039;&#039;&#039; du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039;, sélectionne un sous-ensemble de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; d&#039;entrées à traiter, tandis que les autres sont soit ignorées, soit transmises sans modification. Ceci permet donc au modèle de distribuer les ressources de calcul de façon dynamique en fonction de leur importance.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
L&#039;inspiration par l&#039;architecture &#039;&#039;&#039;[[mixture d&#039;experts]]&#039;&#039;&#039; apparaît pour le moins étriquée, car il s&#039;agit d&#039;un seul expert au lieu de plusieurs. &lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Cette technique peut être appliquée sur des &#039;&#039;&#039;[[Réseau autoattentif|réseaux autoattentifs]]&#039;&#039;&#039; (&#039;&#039;transformers&#039;&#039; en anglais), des &#039;&#039;&#039;[[Réseau autoattentif pour la vision|réseaux autoattentifs pour la vision]]&#039;&#039;&#039;, des &#039;&#039;&#039;[[Réseau convolutif|réseaux convolutifs]]&#039;&#039;&#039; et sur des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle multimodal|multimodaux]]&#039;&#039;&#039;.&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs de calcul&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Mixture-of-Depths&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; MoD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2404.02258   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/mixture-of-depths-mod   Source : Emergent Mind]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@simeon.emanuilov/mixture-of-depths-a-new-approach-to-efficiently-allocate-compute-in-transformer-language-models-15b0d32ff501   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118757</id>
		<title>Mixture de profondeurs de calcul</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118757"/>
		<updated>2026-03-10T22:48:20Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;optimisation de [[modèle d&#039;apprentissage|modèles d&#039;apprentissage]] où le modèle décide dynamiquement, pour chaque élément traité (par exemple, un [[gedment textuel]]), d&#039;utiliser ou non une couche du modèle. &lt;br /&gt;
&lt;br /&gt;
Les éléments jugés prioritaires souvent via un [[échantillonnage à troncature k fixe]] traversent la couche, tandis que les autres passent par une [[connexion résiduelle]], réduisant la quantité de calculs sans trop sacrifier sur les performances.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La mixture de profondeurs de calcul fait référence à des architectures qui, à chaque &#039;&#039;&#039;[[Couche de neurones|couche]]&#039;&#039;&#039; du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039;, sélectionne un sous-ensemble de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; d&#039;entrées à traiter, tandis que les autres sont soit ignorées, soit transmises sans modification. Ceci permet donc au modèle de distribuer les ressources de calcul de façon dynamique en fonction de leur importance.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
L&#039;inspiration par l&#039;architecture &#039;&#039;&#039;[[mixture d&#039;experts]]&#039;&#039;&#039; apparaît pour le moins étriquée, car il s&#039;agit d&#039;un seul expert au lieu de plusieurs. &lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Cette technique peut être appliquée sur des &#039;&#039;&#039;[[Réseau autoattentif|réseaux autoattentifs]]&#039;&#039;&#039; (&#039;&#039;transformers&#039;&#039; en anglais), des &#039;&#039;&#039;[[Réseau autoattentif pour la vision|réseaux autoattentifs pour la vision]]&#039;&#039;&#039;, des &#039;&#039;&#039;[[Réseau convolutif|réseaux convolutifs]]&#039;&#039;&#039; et sur des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle multimodal|multimodaux]]&#039;&#039;&#039;.&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs de calcul&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Mixture-of-Depths&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; MoD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2404.02258   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/mixture-of-depths-mod   Source : Emergent Mind]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@simeon.emanuilov/mixture-of-depths-a-new-approach-to-efficiently-allocate-compute-in-transformer-language-models-15b0d32ff501   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118756</id>
		<title>Mixture de profondeurs de calcul</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Mixture_de_profondeurs_de_calcul&amp;diff=118756"/>
		<updated>2026-03-10T22:47:51Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Stratégie d&#039;optimisation de [[modèle d&#039;apprentissage|modèles d&#039;apprentissage]] où le modèle décide dynamiquement, pour chaque élément traité (par exemple, un [[gedment textuel]]), d&#039;utiliser ou non une couche du modèle. &lt;br /&gt;
&lt;br /&gt;
Les éléments jugés prioritaires souvent via un [[échantillonnage à troncature k fixe]] traversent la couche, tandis que les autres passent par une [[connexion résiduelle]], réduisant la quantité de calculs sans trop sacrifier sur les performances.&lt;br /&gt;
&lt;br /&gt;
== Compléments ==&lt;br /&gt;
La mixture de profondeurs de calcul fait référence à des architectures qui, à chaque &#039;&#039;&#039;[[Couche de neurones|couche]]&#039;&#039;&#039; du &#039;&#039;&#039;[[modèle]]&#039;&#039;&#039;, sélectionne un sous-ensemble de &#039;&#039;&#039;[[données]]&#039;&#039;&#039; d&#039;entrées à traiter, tandis que les autres sont soit ignorées, soit transmises sans modification. Ceci permet donc au modèle de distribuer les ressources de calcul de façon dynamique en fonction de leur importance.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
L&#039;inspiration par l&#039;architecture &#039;&#039;&#039;[[mixture d&#039;experts]]&#039;&#039;&#039; apparaît pour le moins étriquée, car il s&#039;agit d&#039;un seul expert au lieu de plusieurs. &lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
Cette technique peut être appliquée sur des &#039;&#039;&#039;[[Réseau autoattentif|réseaux autoattentifs]]&#039;&#039;&#039; (&#039;&#039;transformers&#039;&#039; en anglais), des &#039;&#039;&#039;[[Réseau autoattentif pour la vision|réseaux autoattentifs pour la vision]]&#039;&#039;&#039;, des &#039;&#039;&#039;[[Réseau convolutif|réseaux convolutifs]]&#039;&#039;&#039; et sur des &#039;&#039;&#039;[[Grand modèle de langues|grands modèles de langues]]&#039;&#039;&#039; &#039;&#039;&#039;[[Modèle multimodal|multimodaux]]&#039;&#039;&#039;.&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;mixture de profondeurs de calcul&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039; Mixture-of-Depths&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039; MoD&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/abs/2404.02258   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://www.emergentmind.com/topics/mixture-of-depths-mod   Source : Emergent Mind]&lt;br /&gt;
&lt;br /&gt;
[https://medium.com/@simeon.emanuilov/mixture-of-depths-a-new-approach-to-efficiently-allocate-compute-in-transformer-language-models-15b0d32ff501   Source : Medium]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=KV_Cache&amp;diff=118755</id>
		<title>KV Cache</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=KV_Cache&amp;diff=118755"/>
		<updated>2026-03-10T22:27:56Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page KV Cache vers Cache clé-valeur&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Cache clé-valeur]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Cache_cl%C3%A9-valeur&amp;diff=118754</id>
		<title>Cache clé-valeur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Cache_cl%C3%A9-valeur&amp;diff=118754"/>
		<updated>2026-03-10T22:27:55Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : Claude COULOMBE a déplacé la page KV Cache vers Cache clé-valeur&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique d&#039;optimisation utilisée pour accélérer l&#039;&#039;&#039;&#039;[[inférence]]&#039;&#039;&#039; dans les &#039;&#039;&#039;[[Modèle|modèles]]&#039;&#039;&#039; d&#039;&#039;&#039;&#039;[[apprentissage automatique]]&#039;&#039;&#039;, en particulier dans les &#039;&#039;&#039;[[Modèle autoattentif|modèles autoattentifs]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Elle consiste à cacher les clés et les valeurs antérieures afin d&#039;éliminer le besoin de les recalculer pour chaque nouveau &#039;&#039;&#039;[[segment textuel]]&#039;&#039;&#039;. Ceci réduit considérablement la taille des &#039;&#039;&#039;[[Matrice|matrices]]&#039;&#039;&#039; et accélère les calculs. &lt;br /&gt;
&lt;br /&gt;
Autrement dit, le modèle utilisant cette technique réutilise les calculs passés pour obtenir des résultats plus rapides, ce qui lui permet de rester rapide même avec des textes plus longs et d&#039;éviter les calculs répétitifs.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;cache clé-valeur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;cache KV&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;KV Cache&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A technique used to accelerate the inference process in machine learning models, particularly in autoregressive models. It involves caching the previous keys and values, so we don’t need to recalculate them for each new token, thus reducing the size of matrices used in calculations, making matrix multiplications faster. The model employing this technique reuses past calculations for faster results, so it stays fast even with longer texts by avoiding repeated work.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- a KV cache stores intermediate key (K) and value (V) computations for reuse during inference (after training), which results in a substantial speed-up when generating text. The downside of a KV cache is that it adds more complexity to the code, increases memory requirements (the main reason I initially didn&#039;t include it in the book), and can&#039;t be used during training. However, the inference speed-ups are often well worth the trade-offs in code complexity and memory when using LLMs in production.&lt;br /&gt;
  KV cache is a technique used in transformer models to improve inference efficiency by storing key (K) and value (V) states of previously computed tokens. This allows the model to avoid redundant computations during the generation of new tokens, thereby reducing the time and resources required for inference--&amp;gt;&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/html/2407.18003v1   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://huggingface.co/blog/not-lain/kv-caching   Source : huggingface]&lt;br /&gt;
&lt;br /&gt;
[https://cyrilzakka.github.io/llm-playbook/nested/kv-cache.html   Source : The Large Language Model Playbook]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;br /&gt;
&lt;br /&gt;
[[[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
	<entry>
		<id>https://datafranca.org/wiki/index.php?title=Cache_cl%C3%A9-valeur&amp;diff=118753</id>
		<title>Cache clé-valeur</title>
		<link rel="alternate" type="text/html" href="https://datafranca.org/wiki/index.php?title=Cache_cl%C3%A9-valeur&amp;diff=118753"/>
		<updated>2026-03-10T22:27:32Z</updated>

		<summary type="html">&lt;p&gt;Claude COULOMBE : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Définition ==&lt;br /&gt;
Technique d&#039;optimisation utilisée pour accélérer l&#039;&#039;&#039;&#039;[[inférence]]&#039;&#039;&#039; dans les &#039;&#039;&#039;[[Modèle|modèles]]&#039;&#039;&#039; d&#039;&#039;&#039;&#039;[[apprentissage automatique]]&#039;&#039;&#039;, en particulier dans les &#039;&#039;&#039;[[Modèle autoattentif|modèles autoattentifs]]&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Elle consiste à cacher les clés et les valeurs antérieures afin d&#039;éliminer le besoin de les recalculer pour chaque nouveau &#039;&#039;&#039;[[segment textuel]]&#039;&#039;&#039;. Ceci réduit considérablement la taille des &#039;&#039;&#039;[[Matrice|matrices]]&#039;&#039;&#039; et accélère les calculs. &lt;br /&gt;
&lt;br /&gt;
Autrement dit, le modèle utilisant cette technique réutilise les calculs passés pour obtenir des résultats plus rapides, ce qui lui permet de rester rapide même avec des textes plus longs et d&#039;éviter les calculs répétitifs.&lt;br /&gt;
&lt;br /&gt;
== Français ==&lt;br /&gt;
&#039;&#039;&#039;cache clé-valeur&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;cache KV&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
== Anglais ==&lt;br /&gt;
&#039;&#039;&#039;KV Cache&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;A technique used to accelerate the inference process in machine learning models, particularly in autoregressive models. It involves caching the previous keys and values, so we don’t need to recalculate them for each new token, thus reducing the size of matrices used in calculations, making matrix multiplications faster. The model employing this technique reuses past calculations for faster results, so it stays fast even with longer texts by avoiding repeated work.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;!-- a KV cache stores intermediate key (K) and value (V) computations for reuse during inference (after training), which results in a substantial speed-up when generating text. The downside of a KV cache is that it adds more complexity to the code, increases memory requirements (the main reason I initially didn&#039;t include it in the book), and can&#039;t be used during training. However, the inference speed-ups are often well worth the trade-offs in code complexity and memory when using LLMs in production.&lt;br /&gt;
  KV cache is a technique used in transformer models to improve inference efficiency by storing key (K) and value (V) states of previously computed tokens. This allows the model to avoid redundant computations during the generation of new tokens, thereby reducing the time and resources required for inference--&amp;gt;&lt;br /&gt;
== Sources ==&lt;br /&gt;
[https://arxiv.org/html/2407.18003v1   Source : Arxiv]&lt;br /&gt;
&lt;br /&gt;
[https://huggingface.co/blog/not-lain/kv-caching   Source : huggingface]&lt;br /&gt;
&lt;br /&gt;
[https://cyrilzakka.github.io/llm-playbook/nested/kv-cache.html   Source : The Large Language Model Playbook]&lt;br /&gt;
&lt;br /&gt;
[[Catégorie:vocabulary]]&lt;br /&gt;
&lt;br /&gt;
[[[[Catégorie:publication]]&lt;/div&gt;</summary>
		<author><name>Claude COULOMBE</name></author>
	</entry>
</feed>