« Approche par l'équipe rouge » : différence entre les versions


(Page créée avec « == en construction == == Définition == xxxxxx == Français == ''' XXXXXX''' == Anglais == ''' Red-teaming''' == Sources == [https://openai.com/index/advancing-red-teaming-with-people-and-ai/ Source : OpenAI] Catégorie:vocabulary »)
 
Aucun résumé des modifications
 
(6 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== en construction ==
== Définition ==
Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un '''[[modèle]]''' afin d'explorer ses vulnérabilités et ses risques.
 
<!-- Le xxxxxx renforce les systèmes contre les menaces réelles et aide à établir des '''[[Test de performances|tests de performances]]''' et des évaluations de sécurité à jour. -->
 
== Compléments ==
L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la '''[[cybersécurité]]''' et l''''[[intelligence artificielle]]'''.
 
Ces techniques comprennent des approches manuelles (''red-teaming''), automatisées (''automatic red-teaming'') et mixtes.


== Définition ==
L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité.
xxxxxx


== Français ==
== Français ==
''' XXXXXX'''
''' approche par l'équipe rouge'''
 
''' approche de l'équipe rouge'''


== Anglais ==
== Anglais ==
''' Red-teaming'''
''' Red-teaming'''
''Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.''


== Sources ==
== Sources ==
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/  Source : OpenAI]
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=RED+TEAMING&index=alt&codom2nd_wet=1#resultrecs Termium Plus - Approche par l'équipe rouge]
 
[https://hackread.com/why-ai-systems-need-red-teaming-more-than-ever/  Hackread]
 
[https://openai.com/index/advancing-red-teaming-with-people-and-ai/  OpenAI]
 
[https://www.weforum.org/stories/2025/06/red-teaming-and-safer-ai/  Weforum]
 
[https://en.wikipedia.org/wiki/Red_team  Wikipedia]


[[Catégorie:vocabulary]]
[[Catégorie:Publication]]

Dernière version du 24 février 2026 à 14:49

Définition

Ensemble de techniques éthiques visant à tester les performances et la sécurité d'un modèle afin d'explorer ses vulnérabilités et ses risques.


Compléments

L'approche par l'équipe rouge a vu le jour dans le domaine militaire afin d'identifier les faiblesses des stratégies et des défenses. Au fil du temps, cette approche s'est étendue à d'autres domaines, comme la cybersécurité et l'intelligence artificielle.

Ces techniques comprennent des approches manuelles (red-teaming), automatisées (automatic red-teaming) et mixtes.

L'approche inverse se nomme Blue-teaming. Il y a des liens intéressants à faire avec les concepts de black, white et gray hat en cybersécurité.

Français

approche par l'équipe rouge

approche de l'équipe rouge

Anglais

Red-teaming

Set of techniques to challenge the model’s performance and security to explore its vulnerabilities and risks. These techniques include manual, automated and mixed approaches. Red-teaming strengthens systems against real-world threats and helps built up-to-date benchmarks and safety evaluations.

Sources

Termium Plus - Approche par l'équipe rouge

Hackread

OpenAI

Weforum

Wikipedia

Contributeurs: Arianne Arel, Patrick Drouin