« Génération texte-à-image » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 7 : | Ligne 7 : | ||
==Compléments== | ==Compléments== | ||
Des exemples d'outils de synthèse texte-image sont: ''[[DALL-E|"Dall-E"]'' et Dall-E 2 d'OpenAi, '''[https://imagen.research.google Imagen ]''' de Google Brain et '''[https://stability.ai/blog/stable-diffusion-announcement Stable Diffusion]''' de Stability AI. | Des exemples d'outils de synthèse texte-image sont: ''[[DALL-E|"Dall-E"]]'' et Dall-E 2 d'OpenAi, '''[https://imagen.research.google Imagen ]''' de Google Brain et '''[https://stability.ai/blog/stable-diffusion-announcement Stable Diffusion]''' de Stability AI. | ||
== Français == | == Français == |
Version du 5 septembre 2022 à 08:36
Définition
La synthèse texte-image utilise un modèle génératif pour produire des images inspirées d'un texte fourni en entrée.
L'usager tape un commande qui décrit l'image et le modèle génératif texte-image produit des images. Par exemple, en tapant la phrase: « Un astronaute à cheval selon un rendu photoréaliste ». on obtiendra une image de synthèse qui ressemble à une photo.
Pour y arriver, un modèle d’apprentissage profond est entraîné sur un ensemble de données d’entraînement colossal associant une image à sa légende, c’est-à-dire une image à un texte de description qui accompagne chacune des images du jeu de données d’entraînement.
Compléments
Des exemples d'outils de synthèse texte-image sont: "Dall-E" et Dall-E 2 d'OpenAi, Imagen de Google Brain et Stable Diffusion de Stability AI.
Français
synthèse texte-image
synthèse texte-à-image
synthèse d'images à partir de textes
génération d'images à partir de textes
génération texte-image
génération texte-à-image
générateur texte-image
générateur texte-à-image
générateur de texte en image
modèle génératif texte-à-image
modèle génératif texte-image
Anglais
text-to-image
text-to-image synthesis
text-to-image generator
Contributeurs: Claude Coulombe, Patrick Drouin, wiki