« R-Zero » : différence entre les versions
(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' R-Zero''' == Anglais == '''R-Zero''' A framework that enables large language models to improve their reasoning abilities without requiring any human-labeled training data. The method creates a self-evolving system where two AI models work together - one generates challenging questions while the other learns to solve them, creating an autonomous learning loop that starts from scratch. R-Z... ») |
Aucun résumé des modifications |
||
| (2 versions intermédiaires par le même utilisateur non affichées) | |||
| Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Architecture qui génère et apprend de manière autonome à partir de ses propres '''[[données d'entraînement]]''' sans tâches supervisées par l'humain, en partant d'un '''[[modèle]]''' de base d'un '''[[grand modèle de langues]]'''. De plus, aucune '''[[Données|donnée]]''' additionnelle n'est requise pour son '''[[entraînement]]'''. | |||
R-Zero met en place une boucle co-évolutive dynamique entre deux instances du même modèle : le Challenger et le Solver. Le Challenger apprend à poser de meilleures questions et le Solver apprend à trouver de meilleures réponses. | |||
== Compléments == | |||
Le Challenger est formé via l''''[[Optimisation de la politique relative au groupe|optimisation de la politique relative au groupe (GRPO en anglais)]]''' afin de générer des questions difficiles. Le Solver est '''[[Peaufinage|peaufiné]]''' avec la GRPO sur un ensemble filtré de ces questions difficiles générées par le Challenger, désormais ''figé''. | |||
== Français == | == Français == | ||
| Ligne 10 : | Ligne 15 : | ||
'''R-Zero''' | '''R-Zero''' | ||
''Self-evolving framework that autonomously generates and learns from its own training data without human-curated tasks, starting with nothing but a base model. No data is required. It sets up a dynamic co-evolutionary loop between two instances of the same base model : the Challenger and the Solver. The Challenger learns to ask better questions, and the Solver learns to find better answers. '' | |||
''The Challenger is trained via Group Relative Policy Optimization (GRPO) to generate difficult questions. The Solver is fine-tuned with GRPO on a filtered set of these challenging questions generated by the now-frozen Challenge.'' | |||
== Sources == | |||
[https://arxiv.org/abs/2508.05004 Source : arxiv] | |||
[https://chengsong-huang.github.io/R-Zero.github.io/ Source : GitHub] | |||
[https://huggingface.co/papers/2508.05004 Source : huggingface] | [https://huggingface.co/papers/2508.05004 Source : huggingface] | ||
[[Catégorie: | [[Catégorie:publication]] | ||
Dernière version du 27 février 2026 à 13:37
en construction
Définition
Architecture qui génère et apprend de manière autonome à partir de ses propres données d'entraînement sans tâches supervisées par l'humain, en partant d'un modèle de base d'un grand modèle de langues. De plus, aucune donnée additionnelle n'est requise pour son entraînement.
R-Zero met en place une boucle co-évolutive dynamique entre deux instances du même modèle : le Challenger et le Solver. Le Challenger apprend à poser de meilleures questions et le Solver apprend à trouver de meilleures réponses.
Compléments
Le Challenger est formé via l'optimisation de la politique relative au groupe (GRPO en anglais) afin de générer des questions difficiles. Le Solver est peaufiné avec la GRPO sur un ensemble filtré de ces questions difficiles générées par le Challenger, désormais figé.
Français
R-Zero
Anglais
R-Zero
Self-evolving framework that autonomously generates and learns from its own training data without human-curated tasks, starting with nothing but a base model. No data is required. It sets up a dynamic co-evolutionary loop between two instances of the same base model : the Challenger and the Solver. The Challenger learns to ask better questions, and the Solver learns to find better answers.
The Challenger is trained via Group Relative Policy Optimization (GRPO) to generate difficult questions. The Solver is fine-tuned with GRPO on a filtered set of these challenging questions generated by the now-frozen Challenge.
Sources
Contributeurs: Arianne Arel, wiki





