« Alignement de l'IA » : différence entre les versions


m (Patrickdrouin a déplacé la page AI alignment vers Alignement de l'IA)
Aucun résumé des modifications
Ligne 3 : Ligne 3 :


== Compléments ==
== Compléments ==
On dit ainsi qu'un système d'IA est alignée avec un opérateur (le concepteur, l'utilisateur ou un référentiel "universel", c.-à-d. les droits de l'Homme) si elle essaie de faire ce que l'opérateur veut qu'elle fasse.  
On dit ainsi qu'un système d'IA est alignée avec un opérateur (le concepteur, l'utilisateur ou un référentiel "universel", c.-à-d. les droits de l'Homme) s'il fait ce que l'opérateur veut qu'il fasse.  


La notion a été popularisée par le chercheur américain Brian Christian, et connaît un regain d’intérêt avec le développement des grands modèles d'intelligence artificielle.
La notion a été popularisée par le chercheur américain Brian Christian, et connaît un regain d’intérêt avec le développement des [[grand modèle de langues|grands modèles de langues]] d'intelligence artificielle.





Version du 15 août 2023 à 14:37

Définition

Domaine de recherche qui a pour but de concevoir des systèmes d'intelligence artificielle dont les résultats s'orientent vers les objectifs, éthiques ou autres, des êtres humains ou des valeurs communes.

Compléments

On dit ainsi qu'un système d'IA est alignée avec un opérateur (le concepteur, l'utilisateur ou un référentiel "universel", c.-à-d. les droits de l'Homme) s'il fait ce que l'opérateur veut qu'il fasse.

La notion a été popularisée par le chercheur américain Brian Christian, et connaît un regain d’intérêt avec le développement des grands modèles de langues d'intelligence artificielle.


Français

alignement de l'IA

alignement d'une intelligence artificielle

problème de l'alignement


Anglais

AI alignment

alignement problem


Source: Yoshua Bengio

Christian, Brian (2020). The Alignment Problem: Machine Learning and Human Values, WW Norton.

Source : Wikipedia

Source : Sambuc éditeur

Source : Wikipedia

Contributeurs: Patrick Drouin, wiki