« Alignement de l'IA » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵↵↵ » par «   »)
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 13 : Ligne 13 :


'''problème de l'alignement'''
'''problème de l'alignement'''


==Anglais==
==Anglais==
Ligne 20 : Ligne 19 :


'''alignement problem'''
'''alignement problem'''
 
==Sources==
 
<small>


[https://yoshuabengio.org/fr/2023/05/30/comment-des-ia-nocives-pourraient-apparaitre Source: Yoshua Bengio]
[https://yoshuabengio.org/fr/2023/05/30/comment-des-ia-nocives-pourraient-apparaitre Source: Yoshua Bengio]
Ligne 33 : Ligne 30 :


[https://en.wikipedia.org/wiki/AI_alignment  Source : Wikipedia]
[https://en.wikipedia.org/wiki/AI_alignment  Source : Wikipedia]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 29 janvier 2024 à 10:19

Définition

Domaine de recherche qui a pour but de concevoir des systèmes d'intelligence artificielle dont les résultats s'orientent vers les objectifs, éthiques ou autres, des êtres humains ou des valeurs communes.

Compléments

On dit ainsi qu'un système d'IA est alignée avec un opérateur (le concepteur, l'utilisateur ou un référentiel "universel", c.-à-d. les droits de l'Homme) s'il fait ce que l'opérateur veut qu'il fasse.

La notion a été popularisée par le chercheur américain Brian Christian, et connaît un regain d’intérêt avec le développement des grands modèles de langues d'intelligence artificielle.

Français

alignement de l'IA

alignement d'une intelligence artificielle

problème de l'alignement

Anglais

AI alignment

alignement problem

Sources

Source: Yoshua Bengio

Christian, Brian (2020). The Alignment Problem: Machine Learning and Human Values, WW Norton.

Source : Wikipedia

Source : Sambuc éditeur

Source : Wikipedia

Contributeurs: Patrick Drouin, wiki