« Préentraînement contrastif langue-image » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Approche qui prend | Approche qui prend en entrée une image et une description textuelle de l'image et qui apprend à représenter les l'image et le texte dans un même [[espace latent]] selon une distribution de probabilité conjointe. | ||
== Compléments == | == Compléments == | ||
CLIP est un | CLIP est un algorithme en [[code source ouvert]], [[Modèle multimodal|multimodal]] et à [[Apprentissage zéro-coup|apprentissage à zéro-coup]]. À partir d'une image et de descriptions textuelles, le modèle peut prédire la description textuelle la plus pertinente pour cette image, sans optimisation pour cette tâche particulière. | ||
==Français== | ==Français== | ||
''' préentraînement contrastif langue-image ''' | |||
''' pré-entraînement contrastif langue-image ''' | |||
'''CLIP''' | '''CLIP''' | ||
Ligne 20 : | Ligne 23 : | ||
Denis, Nicholas (2023) [https://www.statcan.gc.ca/fr/science-donnees/reseau/serie-apprentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada | Denis, Nicholas (2023) [https://www.statcan.gc.ca/fr/science-donnees/reseau/serie-apprentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada | ||
[https://medium.com/@rubilmax/introduction-au-contrastive-learning-une-forme-dapprentissage-auto-supervis%C3%A9-95c3bc070d1c - Introduction au contrastive learning : une forme d’apprentissage auto supervisé] | [https://medium.com/@rubilmax/introduction-au-contrastive-learning-une-forme-dapprentissage-auto-supervis%C3%A9-95c3bc070d1c - Introduction au contrastive learning : une forme d’apprentissage auto supervisé] Medium | ||
[[Catégorie: | [[Catégorie:Vocabulaire]] |
Version du 25 janvier 2024 à 15:33
Définition
Approche qui prend en entrée une image et une description textuelle de l'image et qui apprend à représenter les l'image et le texte dans un même espace latent selon une distribution de probabilité conjointe.
Compléments
CLIP est un algorithme en code source ouvert, multimodal et à apprentissage à zéro-coup. À partir d'une image et de descriptions textuelles, le modèle peut prédire la description textuelle la plus pertinente pour cette image, sans optimisation pour cette tâche particulière.
Français
préentraînement contrastif langue-image
pré-entraînement contrastif langue-image
CLIP
Anglais
CLIP
Constastive Language-Image Pretraining
Sources
Denis, Nicholas (2023) - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!- Statistique Canada
- Introduction au contrastive learning : une forme d’apprentissage auto supervisé Medium
Contributeurs: Patrick Drouin, wiki