« Fabulation de l'IA » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(15 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Dans le domaine de l’intelligence artificielle, plus particulièrement des robots ou [[agent conversationnel|agents conversationnels]], il s'agit d'une réponse manifestement fausse présentée comme un fait.  
Dans le domaine de l’intelligence artificielle, plus particulièrement des [[robot conversationnel|robots conversationnels]] ou agents conversationnels, il s'agit d'une réponse manifestement fausse présentée comme un fait.  


Par exemple, un [agent conversationnel|robots conversationnels] qui inventera un chiffre d’affaires pour une entreprise sans avoir de données à ce sujet.  
Ce phénomène est appelé « fabulation » ou « hallucination » par analogie ou anthropomorphisme avec les phénomènes semblables en psychologie humaine. Par contre le terme fabulation est plus précis car il désigne une histoire fantaisiste ou inventée présentée comme vraie alors que le terme « hallucination » se rapporte plutôt à une perception sensorielle inexacte.


Par exemple, un [[robot conversationnel]] qui inventera un chiffre d’affaires pour une entreprise sans avoir de données à ce sujet.
== Compléments ==  
== Compléments ==  
Ce phénomène est appelé « fabulation » ou « hallucination » par analogie ou anthropomorphisme avec les phénomènes semblables en psychologie humaine.
La fabulation de l'IA est en lien direct avec les données d'entrainement. Pour un sujet où l'algorithme n'a pas bénéficié de beaucoup de données, le [[grand modèle de langues génératif|GMLG]] fera des liens probabiliste (une approximation) en se basant sur peu d'évidence ou de faits. Afin de produire un résultat, ces liens erronés seront utilisés pour générer une réponse à une requête.
<hr />
Le phénomène des hallucinations est en lien direct avec les données d'entrainement. Pour un sujet où l'algorithme n'a pas bénéficié de beaucoup de données, le [[grand modèle de langues génératif|GMLG]] fera des liens en se basant sur peu d'évidence ou de faits. Afin de produire un résultat, ces liens erronés seront utilisés pour générer une réponse à une requête.
<hr />
<hr />
Le terme hallucination en intelligence artificielle a pris de l'importance vers 2022 parallèlement au déploiement des modèles de langues basés sur l'apprentissage profond tels que [[ChatGPT]].  
Le terme hallucination en intelligence artificielle a pris de l'importance vers 2022 parallèlement au déploiement des modèles de langues basés sur l'apprentissage profond tels que [[ChatGPT]].  
Ligne 14 : Ligne 13 :
<hr />
<hr />
La quantité de contexte pris en compte par le [[grand modèle de langues génératif|GMLG]] est un limite importante. Après une très longue conversation, des modèles à mémoire limitée comme ChatGPT perdent le fil de la conversation. C'est pourquoi elle est passée de 3000 mots pour [[ChatGPT]] à 25 000 mots pour GPT-4.
La quantité de contexte pris en compte par le [[grand modèle de langues génératif|GMLG]] est un limite importante. Après une très longue conversation, des modèles à mémoire limitée comme ChatGPT perdent le fil de la conversation. C'est pourquoi elle est passée de 3000 mots pour [[ChatGPT]] à 25 000 mots pour GPT-4.


== Français ==
== Français ==
Ligne 22 : Ligne 20 :


'''affirmation fausse de l'IA'''
'''affirmation fausse de l'IA'''
'''approximation ratée de l'IA'''


== Anglais ==
== Anglais ==
''' AI hallucination '''
''' AI hallucination '''
'''AI failed approximation'''


<!--  Generative AI-driven chatbots can fabricate any factual information, from names, dates, and historical events to quotes or even code.  Hallucinations are common enough that OpenAI actually issues a warning to users within ChatGPT stating that “ChatGPT may produce inaccurate information about people, places, or facts.” -->
<!--  Generative AI-driven chatbots can fabricate any factual information, from names, dates, and historical events to quotes or even code.  Hallucinations are common enough that OpenAI actually issues a warning to users within ChatGPT stating that “ChatGPT may produce inaccurate information about people, places, or facts.” -->


 
==Sources==
<small>


[https://fr.wikipedia.org/wiki/Hallucination_(intelligence_artificielle) Source : Wikipedia]
[https://fr.wikipedia.org/wiki/Hallucination_(intelligence_artificielle) Source : Wikipedia]
Ligne 35 : Ligne 36 :
[https://www.techopedia.com/definition/ai-hallucination  Source : techopedia]
[https://www.techopedia.com/definition/ai-hallucination  Source : techopedia]


 
[[Catégorie:Intelligence artificielle]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]

Dernière version du 29 août 2024 à 17:43

Définition

Dans le domaine de l’intelligence artificielle, plus particulièrement des robots conversationnels ou agents conversationnels, il s'agit d'une réponse manifestement fausse présentée comme un fait.

Ce phénomène est appelé « fabulation » ou « hallucination » par analogie ou anthropomorphisme avec les phénomènes semblables en psychologie humaine. Par contre le terme fabulation est plus précis car il désigne une histoire fantaisiste ou inventée présentée comme vraie alors que le terme « hallucination » se rapporte plutôt à une perception sensorielle inexacte.

Par exemple, un robot conversationnel qui inventera un chiffre d’affaires pour une entreprise sans avoir de données à ce sujet.

Compléments

La fabulation de l'IA est en lien direct avec les données d'entrainement. Pour un sujet où l'algorithme n'a pas bénéficié de beaucoup de données, le GMLG fera des liens probabiliste (une approximation) en se basant sur peu d'évidence ou de faits. Afin de produire un résultat, ces liens erronés seront utilisés pour générer une réponse à une requête.


Le terme hallucination en intelligence artificielle a pris de l'importance vers 2022 parallèlement au déploiement des modèles de langues basés sur l'apprentissage profond tels que ChatGPT.


Les grands modèles de langues génératifs sont « intrinsèquement » non fiables. Ils simulent un comportement intelligent et il est impossible de déterminer si les réponses sont vraies. De plus, les GMLG ne citent pas leurs sources. En plaçant quelques gardes-fous, un GMLG fonctionne plutôt bien, mais un dérapage peut se produire sans avertissement. Il est donc impossible de garantir à 100% la véracité d'une affirmation produite par un tel système d'IA.


La quantité de contexte pris en compte par le GMLG est un limite importante. Après une très longue conversation, des modèles à mémoire limitée comme ChatGPT perdent le fil de la conversation. C'est pourquoi elle est passée de 3000 mots pour ChatGPT à 25 000 mots pour GPT-4.

Français

fabulation de l'IA

hallucination de l'IA

affirmation fausse de l'IA

approximation ratée de l'IA

Anglais

AI hallucination

AI failed approximation


Sources

Source : Wikipedia

Source : techopedia