« Préentraînement contrastif langue-image » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 20 : Ligne 20 :
Denis, Nicholas (2023)  [https://www.statcan.gc.ca/fr/science-donnees/reseau/serie-apprentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada
Denis, Nicholas (2023)  [https://www.statcan.gc.ca/fr/science-donnees/reseau/serie-apprentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada


[https://medium.com/@rubilmax/introduction-au-contrastive-learning-une-forme-dapprentissage-auto-supervis%C3%A9-95c3bc070d1c] Medium
[https://medium.com/@rubilmax/introduction-au-contrastive-learning-une-forme-dapprentissage-auto-supervis%C3%A9-95c3bc070d1c - Introduction au contrastive learning : une forme d’apprentissage auto supervisé]- Medium




[[Catégorie:Publication]]
[[Catégorie:Publication]]

Version du 25 janvier 2024 à 16:22

Définition

Approche qui prend l'entrée d'une image et la description textuelle de l'image et apprend à intégrer les représentations de l'image et du texte sur la surface d'une (hyper) sphère aussi précisément que possible.

Compléments

CLIP est un modèle open source, multimodal et sans prise de vue. À partir d'une image et de descriptions textuelles, le modèle peut prédire la description textuelle la plus pertinente pour cette image, sans optimisation pour une tâche particulière.

Français

CLIP

Anglais

CLIP

Constastive Language-Image Pretraining

Sources

Denis, Nicholas (2023) - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!- Statistique Canada

- Introduction au contrastive learning : une forme d’apprentissage auto supervisé- Medium



Contributeurs: Patrick Drouin, wiki