« Fabulation de l'IA » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Dans le domaine de l’intelligence artificielle, une | Dans le domaine de l’intelligence artificielle, une fabulation ou une hallucination est une réponse manifestement fausse présentée comme un fait. Par exemple, un dialogueur qui inventera un chiffre d’affaires pour une entreprise sans avoir de données à ce sujet. | ||
== Compléments == | == Compléments == | ||
Ce phénomène est appelé « | Ce phénomène est appelé « fabulation » ou « hallucination » par analogie ou anthropomorphisme avec les phénomènes semblables en psychologie humaine. | ||
<hr /> | <hr /> | ||
Le phénomène des hallucinations est en lien direct avec les données d'entrainement. Pour un sujet où l'algorithme n'a pas bénéficié de beaucoup de données, le [[grand modèle de langues génératif|GMLG]] fera des liens en se basant sur peu d'évidence ou de faits. Afin de produire un résultat, ces liens erronés seront utilisés pour générer une réponse à une requête. | Le phénomène des hallucinations est en lien direct avec les données d'entrainement. Pour un sujet où l'algorithme n'a pas bénéficié de beaucoup de données, le [[grand modèle de langues génératif|GMLG]] fera des liens en se basant sur peu d'évidence ou de faits. Afin de produire un résultat, ces liens erronés seront utilisés pour générer une réponse à une requête. | ||
Ligne 15 : | Ligne 15 : | ||
== Français == | == Français == | ||
''' | ''' fabulation de l'IA ''' | ||
''' hallucination de l'IA ''' | ''' hallucination de l'IA ''' |
Version du 29 novembre 2023 à 14:02
Définition
Dans le domaine de l’intelligence artificielle, une fabulation ou une hallucination est une réponse manifestement fausse présentée comme un fait. Par exemple, un dialogueur qui inventera un chiffre d’affaires pour une entreprise sans avoir de données à ce sujet.
Compléments
Ce phénomène est appelé « fabulation » ou « hallucination » par analogie ou anthropomorphisme avec les phénomènes semblables en psychologie humaine.
Le phénomène des hallucinations est en lien direct avec les données d'entrainement. Pour un sujet où l'algorithme n'a pas bénéficié de beaucoup de données, le GMLG fera des liens en se basant sur peu d'évidence ou de faits. Afin de produire un résultat, ces liens erronés seront utilisés pour générer une réponse à une requête.
Le terme hallucination en intelligence artificielle a pris de l'importance vers 2022 parallèlement au déploiement des modèles de langues basés sur l'apprentissage profond tels que ChatGPT.
Les grands modèles de langues génératifs sont « intrinsèquement » non fiables. Ils simulent un comportement intelligent et il est impossible de déterminer si les réponses sont vraies. De plus, les GMLG ne citent pas leurs sources. En plaçant quelques gardes-fous, un GMLG fonctionne plutôt bien, mais un dérapage peut se produire sans avertissement. Il est donc impossible de garantir à 100% la véracité d'une affirmation produite par un tel système d'IA.
La quantité de contexte pris en compte par le GMLG est un limite importante. Après une très longue conversation, des modèles à mémoire limitée comme ChatGPT perdent le fil de la conversation. C'est pourquoi elle est passée de 3000 mots pour ChatGPT à 25 000 mots pour GPT-4.
Français
fabulation de l'IA
hallucination de l'IA
affirmation fausse de l'IA
Anglais
AI hallucination
Contributeurs: Claude Coulombe, Patrick Drouin, wiki