« Approche par l'équipe rouge » : différence entre les versions
(Page créée avec « == en construction == == Définition == xxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Red-teaming''' == Sources == [https://openai.com/index/advancing-red-teaming-with-people-and-ai/ Source : OpenAI] Catégorie:vocabulary ») |
Aucun résumé des modifications |
||
| (6 versions intermédiaires par 2 utilisateurs non affichées) | |||
| Ligne 1 : | Ligne 1 : | ||
== | == Définition == | ||
Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un '''[[modèle]]''' afin d'explorer ses vulnérabilités et ses risques. | |||
<!-- Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des '''[[Test de performances|tests de performances]]''' et des évaluations de sécurité à jour. --> | |||
== Compléments == | |||
L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la '''[[cybersécurité]]''' et l''''[[intelligence artificielle]]'''. | |||
Ces techniques comprennent des approches manuelles (''red-teaming''), automatisées (''automatic red-teaming'') et mixtes. | |||
L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité. | |||
== Français == | == Français == | ||
''' | ''' approche par l'équipe rouge''' | ||
''' approche de l'équipe rouge''' | |||
== Anglais == | == Anglais == | ||
''' Red-teaming''' | ''' Red-teaming''' | ||
''Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.'' | |||
== Sources == | == Sources == | ||
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/ | [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=RED+TEAMING&index=alt&codom2nd_wet=1#resultrecs Termium Plus - Approche par l'équipe rouge] | ||
[https://hackread.com/why-ai-systems-need-red-teaming-more-than-ever/ Hackread] | |||
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/ OpenAI] | |||
[https://www.weforum.org/stories/2025/06/red-teaming-and-safer-ai/ Weforum] | |||
[https://en.wikipedia.org/wiki/Red_team Wikipedia] | |||
[[Catégorie: | [[Catégorie:Publication]] | ||
Dernière version du 24 février 2026 à 14:49
Définition
Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un modèle afin d'explorer ses vulnérabilités et ses risques.
Compléments
L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la cybersécurité et l'intelligence artificielle.
Ces techniques comprennent des approches manuelles (red-teaming), automatisées (automatic red-teaming) et mixtes.
L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité.
Français
approche par l'équipe rouge
approche de l'équipe rouge
Anglais
Red-teaming
Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.
Sources
Contributeurs: Arianne Arel, Patrick Drouin





