« Parcimonie » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
La parcimonie d'une représentation vectorielle se calcule en divisant le nombre d'éléments égaux à zéro (ou null) dans un vecteur ou une matrice divisé par le nombre total d'entrées dans ce vecteur ou cette matrice.  
La parcimonie d'une représentation vectorielle se calcule en divisant le nombre d'éléments égaux à zéro (ou null) dans un [[vecteur]] ou une [[matrice]] divisé par le nombre total d'entrées dans ce vecteur ou cette matrice.  


La parcimonie des attributs désigne la parcimonie d'un vecteur d'attributs. La parcimonie d'un modèle désigne la parcimonie des paramètres du modèle.
La parcimonie des attributs désigne la parcimonie d'un vecteur d'attributs. La parcimonie d'un modèle désigne la parcimonie des paramètres du modèle.


Voir '''[[Parcimonie des données]]'''
Voir '''[[parcimonie des données]]'''.


== Français ==
== Français ==
''' Parcimonie'''
'''parcimonie'''


== Anglais ==
== Anglais ==
''' sparsity '''
'''sparsity'''
 


==Sources==
==Sources==
 
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source : L'APPRENTISSAGE PROFOND]
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source:L'APPRENTISSAGE PROFOND]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]

Dernière version du 18 avril 2024 à 18:13

Définition

La parcimonie d'une représentation vectorielle se calcule en divisant le nombre d'éléments égaux à zéro (ou null) dans un vecteur ou une matrice divisé par le nombre total d'entrées dans ce vecteur ou cette matrice.

La parcimonie des attributs désigne la parcimonie d'un vecteur d'attributs. La parcimonie d'un modèle désigne la parcimonie des paramètres du modèle.

Voir parcimonie des données.

Français

parcimonie

Anglais

sparsity

Sources

Source : L'APPRENTISSAGE PROFOND