« Modèle génératif » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(5 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 11 : Ligne 11 :
Par exemple, un modèle génératif inconditionnel pourra servir à enrichir ou [[augmentation des données|à amplifier ou augmenter un jeu de données]]. Entraîné sur des images de visages, un modèle génératif inconditionnel sera capable de générer de nouvelles images de visages. Un autre exemple de modèle de génération inconditionnel est la super-résolution, qui est capable d'améliorer les images de faible qualité.</li>
Par exemple, un modèle génératif inconditionnel pourra servir à enrichir ou [[augmentation des données|à amplifier ou augmenter un jeu de données]]. Entraîné sur des images de visages, un modèle génératif inconditionnel sera capable de générer de nouvelles images de visages. Un autre exemple de modèle de génération inconditionnel est la super-résolution, qui est capable d'améliorer les images de faible qualité.</li>
<br/>  
<br/>  
<li>Un modèle génératif conditionnel génère des données, mais à partir d’une autre information en entrée. Un modèle génératif conditionnel est entraîné en combinant deux entrées de données différentes mais appariées. Par exemple, une image et une entrée textuelle qui décrit cette image et conditionne au sens statistique la génération de l'image à du texte. On peut également transformer une image en une autre image (génération image-à-image).<br/><br/>  
<li>Un modèle génératif conditionnel génère des données, mais à partir d’une autre information en entrée. Un modèle génératif conditionnel est entraîné en combinant deux entrées de données différentes mais appariées. Par exemple, une image et une entrée textuelle qui décrit cette image et conditionne au sens statistique la génération de l'image à du texte. On peut également transformer une image en une autre image (génération image-à-image) comme Pix2Pix ou CycleGan.<br/><br/>  


Par exemple, un modèle génératif conditionnel donne des choses comme la [[génération texte-à-image]] où quelqu'un peut générer une image à partir d'une requête textuelle, également la repeinte d'image et la retouche guidée par le texte où l'on peut supprimer, ajouter modifier des éléments dans une image à partir de commandes textuelles.</li>
Par exemple, un modèle génératif conditionnel donne des choses comme la [[génération texte-à-image]] où quelqu'un peut générer une image à partir d'une requête textuelle, également la repeinte d'image et la retouche guidée par le texte où l'on peut supprimer, ajouter modifier des éléments dans une image à partir de commandes textuelles.</li>
Ligne 30 : Ligne 30 :
'''generative model'''
'''generative model'''


<small>
 
==Sources==


Source: Ahmed, Faruk (2017). ''Generative models for natural images, mémoire de maitrise'', Université de Montréal, 88 pages.
Source: Ahmed, Faruk (2017). ''Generative models for natural images, mémoire de maitrise'', Université de Montréal, 88 pages.
Ligne 36 : Ligne 37 :
[https://fr.wikipedia.org/wiki/Réseaux_antagonistes_génératifs Source: Wikipedia, ''Réseaux antagonistes génératifs''.]
[https://fr.wikipedia.org/wiki/Réseaux_antagonistes_génératifs Source: Wikipedia, ''Réseaux antagonistes génératifs''.]


</small><br> <div style="border:2px solid #336699; background: #f6f6f6; padding: 1em; margin-bottom:1em; width: 90%;"><html><a href="https://datafranca.org/wiki/Cat%C3%A9gorie:101"><img src="https://datafranca.org/images/icone-101-mots.png" width="250"></a></html>  
</small><br> {{Modèle:101}}<br>
<br></div><br><br>
 


[[Category:Termino 2019]]
[[Category:101]]
[[Category:101]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Publication]]

Dernière version du 11 octobre 2024 à 08:33

Définition

Un modèle génératif est un modèle d'apprentissage automatique qui permet à la fois de générer de nouveaux exemples à partir des données d'entraînement et d'évaluer la probabilité qu'un nouvel exemple provienne ou ait été généré à partir des données d'entraînement.

Dit autrement, un modèle génératif « apprend » une distribution de probabilité à partir d’un jeu de données, pour ensuite être capable de générer de nouveaux exemples « originaux » de données.

Compléments

On distingue deux types de modèles génératif: les modèles conditionnels et les modèles inconditionnels.

  1. Un modèle génératif inconditionnel est entraîné sans aucune entrée à part des données d'un seul type. Le modèle génératif inconditionnel apprendra à générer de nouvelles données de ce type.

    Par exemple, un modèle génératif inconditionnel pourra servir à enrichir ou à amplifier ou augmenter un jeu de données. Entraîné sur des images de visages, un modèle génératif inconditionnel sera capable de générer de nouvelles images de visages. Un autre exemple de modèle de génération inconditionnel est la super-résolution, qui est capable d'améliorer les images de faible qualité.

  2. Un modèle génératif conditionnel génère des données, mais à partir d’une autre information en entrée. Un modèle génératif conditionnel est entraîné en combinant deux entrées de données différentes mais appariées. Par exemple, une image et une entrée textuelle qui décrit cette image et conditionne au sens statistique la génération de l'image à du texte. On peut également transformer une image en une autre image (génération image-à-image) comme Pix2Pix ou CycleGan.

    Par exemple, un modèle génératif conditionnel donne des choses comme la génération texte-à-image où quelqu'un peut générer une image à partir d'une requête textuelle, également la repeinte d'image et la retouche guidée par le texte où l'on peut supprimer, ajouter modifier des éléments dans une image à partir de commandes textuelles.

Il existe un grand nombre de modèles génératifs différents selon leurs données d'entrées, l'architecture du modèle d'apprentissage sous-jacent et leurs sorties. Par exemple: des modèles génératif texte-à-texte qui se basent sur des modèles de langue comme BERT, GPT-3 ou Cédille, et des modèles génératifs texte-à-image comme Dall-E 2 .


Par exemple, suite à l'entraînement d'un modèle sur un ensemble de phrases représentatives de la langue française, un modèle génératif de textes sera capable de « synthétiser » un nouveau texte semblable aux textes avec lesquels il a été entraînés ou « calculer la probabilité » qu'une nouvelle phrase soit une phrase française correcte.


Un bon exemple de modèle génératif est un modèle de Bayes naïf mais on utilise également des réseaux autoattentifs (Transformers), des réseaux antagonistes génératifs (RAG) et des modèles de diffusion.

Français

modèle génératif

modèle de génération

Anglais

generative model


Sources

Source: Ahmed, Faruk (2017). Generative models for natural images, mémoire de maitrise, Université de Montréal, 88 pages.

Source: Wikipedia, Réseaux antagonistes génératifs.



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »