« Génération texte-à-image » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
La génération texte-à-image utilise un ''[[Modèle génératif|modèle génératif]]'' | La génération texte-à-image utilise un ''[[Modèle génératif|modèle génératif]]'' pour produire des images inspirées d'un texte ou d'une [[Requête en langue naturelle|requête]] fournie en entrée. | ||
L'usager tape une | L'usager tape une requête qui décrit l'image et le [[modèle génératif]] texte-à-image produit des images. Par exemple, en tapant la phrase « un astronaute à cheval selon un rendu photoréaliste », on obtiendra une image de synthèse qui ressemble à une photo. | ||
==Compléments== | ==Compléments== | ||
Pour y arriver, un modèle d’apprentissage profond est entraîné sur un ensemble de données colossal associant des une image à sa légende, c’est-à-dire une image à un texte descriptif qui accompagne chacune des images du [[jeu de données]] d’entraînement. | |||
Des exemples d'outils de génération texte-à-image sont: ''[[DALL-E|Dall-E]]'' et Dall-E 2 d'OpenAi, '''[https://imagen.research.google Imagen ]''' de Google Brain, '''[https://www.midjourney.com/home/ Midjourney]''' et '''[https://stability.ai/blog/stable-diffusion-announcement Stable Diffusion]''' de Stability AI. | Des exemples d'outils de génération texte-à-image sont: ''[[DALL-E|Dall-E]]'' et Dall-E 2 d'OpenAi, '''[https://imagen.research.google Imagen ]''' de Google Brain, '''[https://www.midjourney.com/home/ Midjourney]''' et '''[https://stability.ai/blog/stable-diffusion-announcement Stable Diffusion]''' de Stability AI. | ||
Ligne 16 : | Ligne 17 : | ||
'''génération texte-image''' | '''génération texte-image''' | ||
'''génération texte-vers-image''' | '''génération texte-vers-image''' | ||
'''générateur texte-à-image''' | '''générateur texte-à-image''' | ||
Ligne 25 : | Ligne 24 : | ||
'''générateur texte-vers-image''' | '''générateur texte-vers-image''' | ||
'''synthèse texte-à-image''' | '''synthèse texte-à-image''' | ||
Ligne 33 : | Ligne 30 : | ||
'''synthèse texte-vers-image''' | '''synthèse texte-vers-image''' | ||
'''modèle génératif texte-à-image''' | '''modèle génératif texte-à-image''' | ||
Ligne 75 : | Ligne 70 : | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:101]] | [[Catégorie:101]] | ||
[[Catégorie:Publication]] |
Version du 13 février 2024 à 14:47
Définition
La génération texte-à-image utilise un modèle génératif pour produire des images inspirées d'un texte ou d'une requête fournie en entrée.
L'usager tape une requête qui décrit l'image et le modèle génératif texte-à-image produit des images. Par exemple, en tapant la phrase « un astronaute à cheval selon un rendu photoréaliste », on obtiendra une image de synthèse qui ressemble à une photo.
Compléments
Pour y arriver, un modèle d’apprentissage profond est entraîné sur un ensemble de données colossal associant des une image à sa légende, c’est-à-dire une image à un texte descriptif qui accompagne chacune des images du jeu de données d’entraînement.
Des exemples d'outils de génération texte-à-image sont: Dall-E et Dall-E 2 d'OpenAi, Imagen de Google Brain, Midjourney et Stable Diffusion de Stability AI.
La génération texte-à-image est une forme de synthographie.
Français
génération texte-à-image
génération texte-image
génération texte-vers-image
générateur texte-à-image
générateur texte-image
générateur texte-vers-image
synthèse texte-à-image
synthèse texte-image
synthèse texte-vers-image
modèle génératif texte-à-image
modèle génératif texte-image
modèle génératif texte-vers-image
texte-à-image
texte-vers-image
Anglais
text-to-image
text-2-image
text2image
text-to-image generator
text-to-image synthesis
Sources
101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »
Contributeurs: Claude Coulombe, Patrick Drouin, wiki