« Quantification » : différence entre les versions


m (Pitpitt a déplacé la page Quantisation vers Quantification)
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
La quantification nous permet de réduire la taille de nos réseaux neuronaux en convertissant les poids et les biais du réseau de leur format original en virgule flottante (par exemple 32 bits) à un format de moindre précision (par exemple 8 bits). Le format original en virgule flottante peut varier en fonction de plusieurs facteurs tels que l'architecture du modèle et les processus de formation. L'objectif ultime de la quantification est de réduire la taille de notre modèle, ce qui permet de réduire la mémoire et les besoins de calcul pour exécuter l'inférence et former notre modèle. La quantification peut très vite devenir compliquée si vous essayez de quantifier les modèles vous-même.
La quantification nous permet de réduire la taille d'un réseau neuronal en convertissant les poids et les biais du réseau de leur format original en virgule flottante (par exemple 32 bits) à un format de moindre précision (par exemple 16 ou 8 bits).  
 
==Compléments==
Le format original en virgule flottante peut varier en fonction de plusieurs facteurs tels que l'architecture du modèle et les processus d'entraînement. L'objectif ultime de la quantification est de réduire la taille de notre modèle, ce qui permet de réduire la mémoire et les besoins de calcul pour exécuter l'inférence et former notre modèle. La quantification peut très vite devenir compliquée si vous essayez de quantifier les modèles vous-même.


== Français ==
== Français ==

Version du 9 janvier 2024 à 14:30

Définition

La quantification nous permet de réduire la taille d'un réseau neuronal en convertissant les poids et les biais du réseau de leur format original en virgule flottante (par exemple 32 bits) à un format de moindre précision (par exemple 16 ou 8 bits).

Compléments

Le format original en virgule flottante peut varier en fonction de plusieurs facteurs tels que l'architecture du modèle et les processus d'entraînement. L'objectif ultime de la quantification est de réduire la taille de notre modèle, ce qui permet de réduire la mémoire et les besoins de calcul pour exécuter l'inférence et former notre modèle. La quantification peut très vite devenir compliquée si vous essayez de quantifier les modèles vous-même.

Français

Quantification

Anglais

Quantisation


Source : towardsdatascience

Source : mathworks

Contributeurs: Claude Coulombe, Marie Alfaro, wiki