« Alignement de l'IA » : différence entre les versions
(Page créée avec « ==Définition== Domaine de recherche qui a pour but de concevoir des systèmes d'intelligence artificielle dont les résultats s'orientent vers les objectifs, éthiques ou... ») |
m (Remplacement de texte : « ↵↵↵ » par « ») |
||
(4 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 3 : | Ligne 3 : | ||
== Compléments == | == Compléments == | ||
On dit ainsi qu'un système d'IA est alignée avec un opérateur (le concepteur, l'utilisateur ou un référentiel "universel", c.-à-d. les droits de l'Homme) | On dit ainsi qu'un système d'IA est alignée avec un opérateur (le concepteur, l'utilisateur ou un référentiel "universel", c.-à-d. les droits de l'Homme) s'il fait ce que l'opérateur veut qu'il fasse. | ||
La notion a été popularisée par le chercheur américain Brian Christian, et connaît un regain d’intérêt avec le développement des [[grand modèle de langues|grands modèles de langues]] d'intelligence artificielle. | |||
==Français== | ==Français== | ||
Ligne 14 : | Ligne 13 : | ||
'''problème de l'alignement''' | '''problème de l'alignement''' | ||
==Anglais== | ==Anglais== | ||
Ligne 21 : | Ligne 19 : | ||
'''alignement problem''' | '''alignement problem''' | ||
==Sources== | |||
[https://yoshuabengio.org/fr/2023/05/30/comment-des-ia-nocives-pourraient-apparaitre Source: Yoshua Bengio] | [https://yoshuabengio.org/fr/2023/05/30/comment-des-ia-nocives-pourraient-apparaitre Source: Yoshua Bengio] | ||
Ligne 35 : | Ligne 31 : | ||
[https://en.wikipedia.org/wiki/AI_alignment Source : Wikipedia] | [https://en.wikipedia.org/wiki/AI_alignment Source : Wikipedia] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie: |
Dernière version du 29 janvier 2024 à 10:19
Définition
Domaine de recherche qui a pour but de concevoir des systèmes d'intelligence artificielle dont les résultats s'orientent vers les objectifs, éthiques ou autres, des êtres humains ou des valeurs communes.
Compléments
On dit ainsi qu'un système d'IA est alignée avec un opérateur (le concepteur, l'utilisateur ou un référentiel "universel", c.-à-d. les droits de l'Homme) s'il fait ce que l'opérateur veut qu'il fasse.
La notion a été popularisée par le chercheur américain Brian Christian, et connaît un regain d’intérêt avec le développement des grands modèles de langues d'intelligence artificielle.
Français
alignement de l'IA
alignement d'une intelligence artificielle
problème de l'alignement
Anglais
AI alignment
alignement problem
Sources
Christian, Brian (2020). The Alignment Problem: Machine Learning and Human Values, WW Norton.
Contributeurs: Patrick Drouin, wiki