« Préentraînement contrastif langue-image » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(8 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
Approche qui prend l'entrée d'une image et la description textuelle de l'image et apprend à intégrer les représentations de l'image et du texte sur la surface d'une (hyper) sphère aussi précisément que possible.
Approche qui prend en entrée une image et une description textuelle de l'image et qui apprend à représenter les l'image et le texte dans un même [[espace latent]] selon une distribution de probabilité conjointe.


== Compléments ==
== Compléments ==
CLIP est un modèle open source, multimodal et sans prise de vue. À partir d'une image et de descriptions textuelles, le modèle peut prédire la description textuelle la plus pertinente pour cette image, sans optimisation pour une tâche particulière.
CLIP est un algorithme en [[code source ouvert]], [[Modèle multimodal|multimodal]] et à [[Apprentissage zéro-coup|apprentissage à zéro-coup]]. À partir d'une image et de descriptions textuelles, le modèle peut prédire la description textuelle la plus pertinente pour cette image, sans optimisation pour cette tâche particulière.


==Français==
==Français==
''' préentraînement contrastif langue-image '''
''' pré-entraînement contrastif langue-image '''


'''CLIP'''
'''CLIP'''
Ligne 15 : Ligne 18 :
'''Constastive Language-Image Pretraining'''
'''Constastive Language-Image Pretraining'''


<small>
==Sources==


==Sources==
Denis, Nicholas (2023)  [https://www.statcan.gc.ca/fr/science-donnees/reseau/serie-apprentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada
Denis, Nicholas (2023)  [https://www.statcan.gc.ca/fr/science-donnees/reseau/serie-apprentissage-1#a1 - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!]- Statistique Canada


[https://medium.com/@rubilmax/introduction-au-contrastive-learning-une-forme-dapprentissage-auto-supervis%C3%A9-95c3bc070d1c] Medium
[https://medium.com/@rubilmax/introduction-au-contrastive-learning-une-forme-dapprentissage-auto-supervis%C3%A9-95c3bc070d1c - Introduction au contrastive learning : une forme d’apprentissage auto supervisé] Medium




[[Catégorie:Publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 30 janvier 2024 à 19:15

Définition

Approche qui prend en entrée une image et une description textuelle de l'image et qui apprend à représenter les l'image et le texte dans un même espace latent selon une distribution de probabilité conjointe.

Compléments

CLIP est un algorithme en code source ouvert, multimodal et à apprentissage à zéro-coup. À partir d'une image et de descriptions textuelles, le modèle peut prédire la description textuelle la plus pertinente pour cette image, sans optimisation pour cette tâche particulière.

Français

préentraînement contrastif langue-image

pré-entraînement contrastif langue-image

CLIP

Anglais

CLIP

Constastive Language-Image Pretraining

Sources

Denis, Nicholas (2023) - Révolution : Une nouvelle approche de pré-entraînement d'apprentissage par transfert voit le jour!- Statistique Canada

- Introduction au contrastive learning : une forme d’apprentissage auto supervisé Medium

Contributeurs: Patrick Drouin, wiki