« Préentraînement contrastif langue-image » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 20 : | Ligne 20 : | ||
Denis, Nicholas (2023) [https://www.statcan.gc.ca/fr/science-donnees/reseau/serie-apprentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada | Denis, Nicholas (2023) [https://www.statcan.gc.ca/fr/science-donnees/reseau/serie-apprentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada | ||
[https://medium.com/@rubilmax/introduction-au-contrastive-learning-une-forme-dapprentissage-auto-supervis%C3%A9-95c3bc070d1c] | [https://medium.com/@rubilmax/introduction-au-contrastive-learning-une-forme-dapprentissage-auto-supervis%C3%A9-95c3bc070d1c - Introduction au contrastive learning : une forme d’apprentissage auto supervisé]- Medium | ||
[[Catégorie:Publication]] | [[Catégorie:Publication]] |
Version du 25 janvier 2024 à 15:22
Définition
Approche qui prend l'entrée d'une image et la description textuelle de l'image et apprend à intégrer les représentations de l'image et du texte sur la surface d'une (hyper) sphère aussi précisément que possible.
Compléments
CLIP est un modèle open source, multimodal et sans prise de vue. À partir d'une image et de descriptions textuelles, le modèle peut prédire la description textuelle la plus pertinente pour cette image, sans optimisation pour une tâche particulière.
Français
CLIP
Anglais
CLIP
Constastive Language-Image Pretraining
Sources
Denis, Nicholas (2023) - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!- Statistique Canada
- Introduction au contrastive learning : une forme d’apprentissage auto supervisé- Medium
Contributeurs: Patrick Drouin, wiki