« Désapprentissage automatique » : différence entre les versions


(Page créée avec « == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Machine Unlearning ''' As our ML models today become larger and their (pre-)training sets grow to inscrutable sizes, people are increasingly interested in the concept of machine unlearning to edit away undesired things like private data, stale knowledge, copyrighted materials, toxic/unsafe content, dangerous capabilities, and misinformation, without retraining models from sc... »)
 
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
XXXXXXXXX
Le désapprentissage automatique est une technique liée à l’apprentissage automatique visant à faire disparaître des connaissances apprises par un modèle d’IA dans le but de les supprimer du modèle sans avoir à ré-entraîner ce dernier à partir de zéro.
 
== Compléments ==
Le désapprentissage automatique est une technique apparentée au [[peaufinage]] du modèle, qui consiste à donner à l'algorithme un ensemble de données à exclure plutôt qu'un ensemble de données d'enrichissement.
 
Les débuts du désapprentissage automatique cherchent à répondre à la législation sur le « droit à l’oubli », une disposition du règlement général sur la protection des données (RGPD) de l'Union européenne.
 
Le désapprentissage automatique, pourrait être utilisé, par exemple, pour retirer des œuvres protégées par le droit d'auteur (texte, image, son), pour réduire la [[Fabulation de l'IA|fabulation]], pour rectifier des erreurs factuelles et pour répondre aux obligations légales comme le droit à l'oubli.


== Français ==
== Français ==
''' XXXXXXXXX '''
''' désapprentissage automatique '''
 
''' désapprentissage machine'''


== Anglais ==
== Anglais ==
''' Machine Unlearning '''
''' Machine Unlearning '''


As our ML models today become larger and their (pre-)training sets grow to inscrutable sizes, people are increasingly interested in the concept of machine unlearning to edit away undesired things like private data, stale knowledge, copyrighted materials, toxic/unsafe content, dangerous capabilities, and misinformation, without retraining models from scratch.
== Source ==
[https://www.cnil.fr/fr/definition/desapprentissage-machine Source : CNIL]


== Source ==
[https://fr.wikipedia.org/wiki/Droit_%C3%A0_l%27oubli  Source : Wikipedia - Droit à l'oubli]


[https://deepgram.com/learn/what-is-machine-unlearning-and-why-does-it-matter  Source : deepgram]
[https://deepgram.com/learn/what-is-machine-unlearning-and-why-does-it-matter  Source : deepgram]
Ligne 16 : Ligne 26 :
[https://research.google/blog/announcing-the-first-machine-unlearning-challenge/  Source : research.google]
[https://research.google/blog/announcing-the-first-machine-unlearning-challenge/  Source : research.google]


[[Catégorie:vocabulary]]
[[Catégorie:Publication]]

Version du 12 juin 2024 à 14:42

Définition

Le désapprentissage automatique est une technique liée à l’apprentissage automatique visant à faire disparaître des connaissances apprises par un modèle d’IA dans le but de les supprimer du modèle sans avoir à ré-entraîner ce dernier à partir de zéro.

Compléments

Le désapprentissage automatique est une technique apparentée au peaufinage du modèle, qui consiste à donner à l'algorithme un ensemble de données à exclure plutôt qu'un ensemble de données d'enrichissement.

Les débuts du désapprentissage automatique cherchent à répondre à la législation sur le « droit à l’oubli », une disposition du règlement général sur la protection des données (RGPD) de l'Union européenne.

Le désapprentissage automatique, pourrait être utilisé, par exemple, pour retirer des œuvres protégées par le droit d'auteur (texte, image, son), pour réduire la fabulation, pour rectifier des erreurs factuelles et pour répondre aux obligations légales comme le droit à l'oubli.

Français

désapprentissage automatique

désapprentissage machine

Anglais

Machine Unlearning

Source

Source : CNIL

Source : Wikipedia - Droit à l'oubli

Source : deepgram

Source : research.google



Contributeurs: Patrick Drouin, wiki