« Fabulation de l'IA » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' AI hallucination ''' Generative AI-driven chatbots can fabricat... »)
 
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
Dans le domaine de l’intelligence artificielle, une affabulation ou une hallucination est une réponse manifestement fausse présentée comme un fait (par exemple, un dialogueur qui invente un chiffre d’affaires pour une entreprise sans avoir de données à ce sujet).
 
== Compléments ==  
Ce phénomène est appelé « affabulation » ou « hallucination » par analogie ou anthropomorphisme avec les phénomènes semblables en psychologie humaine.
 
<hr />
Le terme hallucination en intelligence artificielle a pris de l'importance vers 2022 parallèlement au déploiement des modèles de langues basés sur l'apprentissage profond tels que ChatGPT.
 
<hr />
Les [[grand modèle de langues génératif|grands modèles de langues génératifs]] sont « intrinsèquement » non fiables. Ils simulent un comportement intelligent et il est impossible de déterminer si les réponses sont vraies. De plus, les [[grand modèle de langues génératif|GMLG]] ne citent pas leurs sources. En plaçant quelques gardes-fous, un [[grand modèle de langues génératif|GMLG]] fonctionne plutôt bien, mais un dérapage peut se produire sans avertissement. Il est donc impossible de garantir à 100% la véracité d'une affirmation produite par un tel système d'IA. 
 
<hr />
La quantité de contexte pris en compte par le [[grand modèle de langues génératif|GMLG]] est un limite importante. Après une très longue conversation, des modèles à mémoire limitée comme ChatGPT perdent le fil de la conversation. C'est pourquoi elle est passée de 3000 mots pour ChatGPT à 25 000 mots pour GPT-4.


== Définition ==
XXXXXXXXX


== Français ==
== Français ==
''' XXXXXXXXX '''
''' affabulation de l'IA '''
 
''' hallucination de l'IA '''
 
'''affirmation fausse de l'IA'''


== Anglais ==
== Anglais ==
''' AI hallucination '''
''' AI hallucination '''


  Generative AI-driven chatbots can fabricate any factual information, from names, dates, and historical events to quotes or even code.  Hallucinations are common enough that OpenAI actually issues a warning to users within ChatGPT stating that “ChatGPT may produce inaccurate information about people, places, or facts.”
<!--  Generative AI-driven chatbots can fabricate any factual information, from names, dates, and historical events to quotes or even code.  Hallucinations are common enough that OpenAI actually issues a warning to users within ChatGPT stating that “ChatGPT may produce inaccurate information about people, places, or facts.” -->




<small>
<small>


[https://fr.wikipedia.org/wiki/Hallucination_(intelligence_artificielle) Source : Wikipedia]
[https://www.techopedia.com/definition/ai-hallucination  Source : techopedia]
[https://www.techopedia.com/definition/ai-hallucination  Source : techopedia]




[[Catégorie:vocabulary]]
[[Catégorie:Publication]]

Version du 8 août 2023 à 15:41

Définition

Dans le domaine de l’intelligence artificielle, une affabulation ou une hallucination est une réponse manifestement fausse présentée comme un fait (par exemple, un dialogueur qui invente un chiffre d’affaires pour une entreprise sans avoir de données à ce sujet).

Compléments

Ce phénomène est appelé « affabulation » ou « hallucination » par analogie ou anthropomorphisme avec les phénomènes semblables en psychologie humaine.


Le terme hallucination en intelligence artificielle a pris de l'importance vers 2022 parallèlement au déploiement des modèles de langues basés sur l'apprentissage profond tels que ChatGPT.


Les grands modèles de langues génératifs sont « intrinsèquement » non fiables. Ils simulent un comportement intelligent et il est impossible de déterminer si les réponses sont vraies. De plus, les GMLG ne citent pas leurs sources. En plaçant quelques gardes-fous, un GMLG fonctionne plutôt bien, mais un dérapage peut se produire sans avertissement. Il est donc impossible de garantir à 100% la véracité d'une affirmation produite par un tel système d'IA.


La quantité de contexte pris en compte par le GMLG est un limite importante. Après une très longue conversation, des modèles à mémoire limitée comme ChatGPT perdent le fil de la conversation. C'est pourquoi elle est passée de 3000 mots pour ChatGPT à 25 000 mots pour GPT-4.


Français

affabulation de l'IA

hallucination de l'IA

affirmation fausse de l'IA

Anglais

AI hallucination


Source : Wikipedia Source : techopedia