« Approche par l'équipe rouge » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
| (5 versions intermédiaires par le même utilisateur non affichées) | |||
| Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Ensemble de techniques visant à tester les performances et la sécurité d'un '''[[modèle]]''' afin d'explorer ses vulnérabilités et ses risques | Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un '''[[modèle]]''' afin d'explorer ses vulnérabilités et ses risques. | ||
Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des '''[[Test de performances|tests de performances]]''' et des évaluations de sécurité à jour. | <!-- Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des '''[[Test de performances|tests de performances]]''' et des évaluations de sécurité à jour. --> | ||
== Compléments == | == Compléments == | ||
L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la '''[[cybersécurité]]''' et l''''[[intelligence artificielle]]'''. | |||
Ces techniques comprennent des approches manuelles (''red-teaming''), automatisées (''automatic red-teaming'') et mixtes. | |||
L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité. | |||
== Français == | == Français == | ||
''' | ''' approche par l'équipe rouge''' | ||
''' approche de l'équipe rouge''' | |||
== Anglais == | == Anglais == | ||
| Ligne 18 : | Ligne 22 : | ||
== Sources == | == Sources == | ||
[https:// | [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=RED+TEAMING&index=alt&codom2nd_wet=1#resultrecs Termium Plus - Approche par l'équipe rouge] | ||
[https:// | [https://hackread.com/why-ai-systems-need-red-teaming-more-than-ever/ Hackread] | ||
[https:// | [https://openai.com/index/advancing-red-teaming-with-people-and-ai/ OpenAI] | ||
[https:// | [https://www.weforum.org/stories/2025/06/red-teaming-and-safer-ai/ Weforum] | ||
[https://en.wikipedia.org/wiki/Red_team Wikipedia] | |||
[[Catégorie: | [[Catégorie:Publication]] | ||
Dernière version du 24 février 2026 à 14:49
Définition
Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un modèle afin d'explorer ses vulnérabilités et ses risques.
Compléments
L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la cybersécurité et l'intelligence artificielle.
Ces techniques comprennent des approches manuelles (red-teaming), automatisées (automatic red-teaming) et mixtes.
L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité.
Français
approche par l'équipe rouge
approche de l'équipe rouge
Anglais
Red-teaming
Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.
Sources
Contributeurs: Arianne Arel, Patrick Drouin





