« Génération texte-à-vidéo » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
La génération texte-à- | La génération texte-à-vidéo utilise un ''[[Modèle génératif|modèle génératif]]'' pour produire des vidéos inspirées d'un texte ou d'une [[Requête en langue naturelle|requête]] fournie en entrée. | ||
L'usager tape une requête qui décrit | L'usager tape une requête qui décrit la vidéo à réaliser et le [[modèle génératif]] produit une séquences d'images. | ||
==Compléments== | ==Compléments== | ||
Pour y arriver, un modèle d’apprentissage profond est entraîné sur un ensemble de données colossal associant des une image à sa légende, c’est-à-dire une image à un texte descriptif qui accompagne chacune des images du [[jeu de données]] d’entraînement. | Pour y arriver, un modèle d’apprentissage profond est entraîné sur un ensemble de données colossal associant des une image à sa légende, c’est-à-dire une image à un texte descriptif qui accompagne chacune des images du [[jeu de données]] d’entraînement. | ||
Des exemples d'outils de génération texte-à- | Des exemples d'outils de génération texte-à-vidsont: [Sora Sora] et [http://Gen-2 Gen-2] de Runway, [https://lumiere-video.github.io/ Lumiere] un projet réalisé en collaboration avec Google et [https://makeavideo.studio/ Make-A-Video] de Meta. | ||
== Français == | == Français == | ||
Ligne 35 : | Ligne 34 : | ||
'''modèle génératif texte-vers-vidéo''' | '''modèle génératif texte-vers-vidéo''' | ||
'''modèle vidéo génératif''' | |||
'''texte-à-vidéo''' | '''texte-à-vidéo''' | ||
Ligne 42 : | Ligne 43 : | ||
== Anglais == | == Anglais == | ||
'''text-to-video''' | '''text-to-video''' | ||
'''text-to-video model''' | |||
'''text-2-video''' | '''text-2-video''' | ||
'''text-2-video model''' | |||
'''text2video''' | '''text2video''' | ||
Ligne 53 : | Ligne 58 : | ||
==Sources== | ==Sources== | ||
[https:// | [https://www.phonandroid.com/openai-lance-sora-une-ia-qui-peut-generer-des-videos-ultra-realistes.html ''OpenAI lance Sora, une IA qui peut générer des vidéos ultra réalistes'', Phonandroid.com - William Zimmer (2004)] | ||
[https:// | [https://runwayml.com/ai-tools/gen-2/ ''How to use Gen-2'', Runway] | ||
[https:// | [https://en.wikipedia.org/wiki/Sora_(text-to-video_model), Wikipedia] | ||
</small><br> | </small><br> | ||
[[Catégorie:Publication]] | [[Catégorie:Publication]] |
Version du 9 avril 2024 à 14:13
Définition
La génération texte-à-vidéo utilise un modèle génératif pour produire des vidéos inspirées d'un texte ou d'une requête fournie en entrée.
L'usager tape une requête qui décrit la vidéo à réaliser et le modèle génératif produit une séquences d'images.
Compléments
Pour y arriver, un modèle d’apprentissage profond est entraîné sur un ensemble de données colossal associant des une image à sa légende, c’est-à-dire une image à un texte descriptif qui accompagne chacune des images du jeu de données d’entraînement.
Des exemples d'outils de génération texte-à-vidsont: [Sora Sora] et Gen-2 de Runway, Lumiere un projet réalisé en collaboration avec Google et Make-A-Video de Meta.
Français
génération texte-à-vidéo
génération texte-vidéo
génération texte-vers-vidéo
générateur texte-à-vidéo
générateur texte-vidéo
générateur texte-vers-vidéo
synthèse texte-à-vidéo
synthèse texte-vidéo
synthèse texte-vers-vidéo
modèle génératif texte-à-vidéo
modèle génératif texte-vidéo
modèle génératif texte-vers-vidéo
modèle vidéo génératif
texte-à-vidéo
texte-vers-vidéo
Anglais
text-to-video
text-to-video model
text-2-video
text-2-video model
text2video
text-to-video generator
text-to-video synthesis
Sources
Contributeurs: Claude Coulombe, Patrick Drouin, wiki