« Modèle génératif » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(31 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
== Définition ==
Un modèle génératif est un modèle issu de l'[[apprentissage automatique]] qui permet à la fois de générer de nouveaux exemples à partir des données d'entraînement et d'évaluer la probabilité qu'un nouvel exemple provienne ou ait été généré à partir des données d'entraînement.  
Un modèle génératif est un modèle d'[[apprentissage automatique]] qui permet à la fois de générer de nouveaux exemples à partir des données d'entraînement et d'évaluer la probabilité qu'un nouvel exemple provienne ou ait été généré à partir des données d'entraînement.  


Il existe un grand nombre de modèles génératifs différents selon leurs données d'entrées, l'architecture du modèle d'apprentissage sous-jacent et leurs sorties. Par exemple: des modèles génératif texte-texte qui se basent sur des '''[[Modèle de langue|modèles de langue]]''' comme '''[[https://fr.wikipedia.org/wiki/GPT-3|GPT-3]]'''.  
Dit autrement, un modèle génératif « apprend » une distribution de probabilité à partir d’un jeu de données, pour ensuite être capable de générer de nouveaux exemples « originaux » de données.


==Compléments==
== Compléments ==
Par exemple, suite à l'entraînement d'un modèle sur un ensemble de phrases représentatives de la langue française, un modèle génératif sera capable de calculer la probabilité qu'une nouvelle phrase soit une phrase française correcte.  
On distingue deux types de modèles génératif: les modèles conditionnels et les modèles inconditionnels.  


Un bon exemple de modèle génératif est un modèle de Bayes naïf.
<ol>
<li>Un modèle génératif inconditionnel est entraîné sans aucune entrée à part des données d'un seul type. Le modèle génératif inconditionnel apprendra à générer de nouvelles données de ce type.<br/><br/> 
Par exemple, un modèle génératif inconditionnel pourra servir à enrichir ou [[augmentation des données|à amplifier ou augmenter un jeu de données]]. Entraîné sur des images de visages, un modèle génératif inconditionnel sera capable de générer de nouvelles images de visages. Un autre exemple de modèle de génération inconditionnel est la super-résolution, qui est capable d'améliorer les images de faible qualité.</li>
<br/>
<li>Un modèle génératif conditionnel génère des données, mais à partir d’une autre information en entrée. Un modèle génératif conditionnel est entraîné en combinant deux entrées de données différentes mais appariées. Par exemple, une image et une entrée textuelle qui décrit cette image et conditionne au sens statistique la génération de l'image à du texte. On peut également transformer une image en une autre image (génération image-à-image) comme Pix2Pix ou CycleGan.<br/><br/>
 
Par exemple, un modèle génératif conditionnel donne des choses comme la [[génération texte-à-image]] où quelqu'un peut générer une image à partir d'une requête textuelle, également la repeinte d'image et la retouche guidée par le texte où l'on peut supprimer, ajouter modifier des éléments dans une image à partir de commandes textuelles.</li>
</ol>
<hr/>
Il existe un grand nombre de modèles génératifs différents selon leurs données d'entrées, l'architecture du modèle d'apprentissage sous-jacent et leurs sorties. Par exemple: des modèles génératif texte-à-texte qui se basent sur des '''[[Modèle de langue neuronal|modèles de langue]]''' comme ''[[BERT|BERT]]'', ''[[GPT-3|GPT-3]]'' ou ''[[Cédille|Cédille]]'', et des [[génération texte-à-image|modèles génératifs texte-à-image]] comme ''[[DALL-E|Dall-E 2 ]]''.   
<hr/>
Par exemple, suite à l'entraînement d'un modèle sur un ensemble de phrases représentatives de la langue française, un modèle génératif de textes sera capable de « synthétiser » un nouveau texte semblable aux textes avec lesquels il a été entraînés ou « calculer la probabilité » qu'une nouvelle phrase soit une phrase française correcte.
<hr/>
Un bon exemple de modèle génératif est un modèle de Bayes naïf mais on utilise également des ''[[Réseau autoattentif|réseaux autoattentifs]]'' (Transformers), des ''[[Réseau antagoniste génératif|réseaux antagonistes génératifs]]'' (RAG) et des [[modèle de diffusion|modèles de diffusion]].


==Français==
==Français==
'''modèle génératif'''   
'''modèle génératif'''   
'''modèle de génération'''


==Anglais==
==Anglais==
'''generative model'''
'''generative model'''


<small>
 
==Sources==


Source: Ahmed, Faruk (2017). ''Generative models for natural images, mémoire de maitrise'', Université de Montréal, 88 pages.
Source: Ahmed, Faruk (2017). ''Generative models for natural images, mémoire de maitrise'', Université de Montréal, 88 pages.
Ligne 21 : Ligne 37 :
[https://fr.wikipedia.org/wiki/Réseaux_antagonistes_génératifs Source: Wikipedia, ''Réseaux antagonistes génératifs''.]
[https://fr.wikipedia.org/wiki/Réseaux_antagonistes_génératifs Source: Wikipedia, ''Réseaux antagonistes génératifs''.]


</small><br> <div style="border:2px solid #336699; background: #f6f6f6; padding: 1em; margin-bottom:1em; width: 90%;"><html><a href="https://datafranca.org/wiki/Cat%C3%A9gorie:101"><img src="https://datafranca.org/images/icone-101-mots.png" width="250"></a></html>
</small><br> {{Modèle:101}}<br>
<br></div><br><br>
 
[[Utilisateur:Patrickdrouin  | Source: Termino]]


[[Category:Termino 2019]]
[[Category:Termino 2019]]
[[Category:101]]
[[Category:101]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 10:53

Définition

Un modèle génératif est un modèle d'apprentissage automatique qui permet à la fois de générer de nouveaux exemples à partir des données d'entraînement et d'évaluer la probabilité qu'un nouvel exemple provienne ou ait été généré à partir des données d'entraînement.

Dit autrement, un modèle génératif « apprend » une distribution de probabilité à partir d’un jeu de données, pour ensuite être capable de générer de nouveaux exemples « originaux » de données.

Compléments

On distingue deux types de modèles génératif: les modèles conditionnels et les modèles inconditionnels.

  1. Un modèle génératif inconditionnel est entraîné sans aucune entrée à part des données d'un seul type. Le modèle génératif inconditionnel apprendra à générer de nouvelles données de ce type.

    Par exemple, un modèle génératif inconditionnel pourra servir à enrichir ou à amplifier ou augmenter un jeu de données. Entraîné sur des images de visages, un modèle génératif inconditionnel sera capable de générer de nouvelles images de visages. Un autre exemple de modèle de génération inconditionnel est la super-résolution, qui est capable d'améliorer les images de faible qualité.

  2. Un modèle génératif conditionnel génère des données, mais à partir d’une autre information en entrée. Un modèle génératif conditionnel est entraîné en combinant deux entrées de données différentes mais appariées. Par exemple, une image et une entrée textuelle qui décrit cette image et conditionne au sens statistique la génération de l'image à du texte. On peut également transformer une image en une autre image (génération image-à-image) comme Pix2Pix ou CycleGan.

    Par exemple, un modèle génératif conditionnel donne des choses comme la génération texte-à-image où quelqu'un peut générer une image à partir d'une requête textuelle, également la repeinte d'image et la retouche guidée par le texte où l'on peut supprimer, ajouter modifier des éléments dans une image à partir de commandes textuelles.

Il existe un grand nombre de modèles génératifs différents selon leurs données d'entrées, l'architecture du modèle d'apprentissage sous-jacent et leurs sorties. Par exemple: des modèles génératif texte-à-texte qui se basent sur des modèles de langue comme BERT, GPT-3 ou Cédille, et des modèles génératifs texte-à-image comme Dall-E 2 .


Par exemple, suite à l'entraînement d'un modèle sur un ensemble de phrases représentatives de la langue française, un modèle génératif de textes sera capable de « synthétiser » un nouveau texte semblable aux textes avec lesquels il a été entraînés ou « calculer la probabilité » qu'une nouvelle phrase soit une phrase française correcte.


Un bon exemple de modèle génératif est un modèle de Bayes naïf mais on utilise également des réseaux autoattentifs (Transformers), des réseaux antagonistes génératifs (RAG) et des modèles de diffusion.

Français

modèle génératif

modèle de génération

Anglais

generative model


Sources

Source: Ahmed, Faruk (2017). Generative models for natural images, mémoire de maitrise, Université de Montréal, 88 pages.

Source: Wikipedia, Réseaux antagonistes génératifs.



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »