« Génération augmentée d'information applicative (GAIA) » : différence entre les versions


Aucun résumé des modifications
 
(16 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Méthode d'adaptation, [[peaufinage]] des résultats d'un [[grand modèle de langues]] en encodant les données d’entrée avec des [[représentation contextuelle compacte|représentations contextuelles compactes]] (''embeddings'') du domaine d’application contenues dans une base de données vectorielles.
Méthode d'adaptation, [[peaufinage]] des résultats d'un [[grand modèle de langues]] par enrichissement des requêtes avec des sources d'informations externes et à jour afin de générer des résultats plus précis et plus utiles.


== Compléments ==
== Compléments ==
On ne touche pas au grand modèle de langues, mais on enrichit les requêtes en encodant les données d’entrée avec des [[vecteur sémantique compact|vecteurs sémantiques compacts]] (''embeddings'') du domaine d’application. Ces [[vecteur sémantique compact|vecteurs sémantiques compacts]] proviennent d'une base de données vectorielles.
<hr/>
Ici, on ne modifie pas le modèle de langues, mais on ajoute un contexte supplémentaire à la requête permettant au [[grand modèle de langues]] de répondre aux questions avec des informations sur le sujet.  
Ici, on ne modifie pas le modèle de langues, mais on ajoute un contexte supplémentaire à la requête permettant au [[grand modèle de langues]] de répondre aux questions avec des informations sur le sujet.  


Lorsqu'un utilisateur fait une requête, celle-ci est enrichie à l'aide de [[représentation contextuelle compacte|représentations contextuelles compactes]] similaires retrouvées dans la base de données vectorielles par l'[[Algorithme des k plus proches voisins|algorithme des k plus proches voisins]] ([[métrique de similarité cosinus]]). Une fois que nous avons trouvé des [[représentation contextuelle compacte|représentations contextuelles compactes]] similaires, nous soumettons une requête avec les données associées pour fournir un contexte permettant au [[grand modèle de langues]] de mieux répondre à la question.
Lorsqu'un utilisateur fait une requête, celle-ci est enrichie à l'aide de [[vecteur sémantique compact|vecteurs sémantiques compacts]] similaires retrouvées dans la base de données vectorielles par l'[[Algorithme des k plus proches voisins|algorithme des k plus proches voisins]] ([[métrique de similarité cosinus]]). Une fois que nous avons trouvé des [[vecteur sémantique compact|vecteur sémantique compact]] similaires, nous soumettons une requête avec les données associées pour fournir un contexte permettant au [[grand modèle de langues]] de mieux répondre à la question.


== Français ==
== Français ==
'''génération augmentée d'information applicative'''
'''GAIA'''
'''génération augmentée d'information contextuelle'''
'''GAIC'''


'''adaptation par enrichissement contextuel'''
'''adaptation par enrichissement contextuel'''
Ligne 17 : Ligne 27 :
'''PEC'''
'''PEC'''


'''génération augmentée d'information contextuelle'''
'''enrichissement contextuel'''


'''GAIC'''
'''génération augmentée par récupération'''
 
'''enrichissement contextuel'''


== Anglais ==
== Anglais ==
Ligne 28 : Ligne 36 :
'''RAG'''
'''RAG'''


<small>
==Sources==
[https://towardsdatascience.com/retrieval-augmented-generation-rag-from-theory-to-langchain-implementation-4e9bd5f6a4f2  Source : towardsdatascience]


[https://research.ibm.com/blog/retrieval-augmented-generation-RAG  Source : research.ibm.com]
[https://research.ibm.com/blog/retrieval-augmented-generation-RAG  Source : research.ibm.com]


[https://arxiv.org/abs/2005.11401v4 Source: Meta]
[[Catégorie:Intelligence artificielle]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]

Dernière version du 31 octobre 2024 à 04:10

Définition

Méthode d'adaptation, peaufinage des résultats d'un grand modèle de langues par enrichissement des requêtes avec des sources d'informations externes et à jour afin de générer des résultats plus précis et plus utiles.

Compléments

On ne touche pas au grand modèle de langues, mais on enrichit les requêtes en encodant les données d’entrée avec des vecteurs sémantiques compacts (embeddings) du domaine d’application. Ces vecteurs sémantiques compacts proviennent d'une base de données vectorielles.


Ici, on ne modifie pas le modèle de langues, mais on ajoute un contexte supplémentaire à la requête permettant au grand modèle de langues de répondre aux questions avec des informations sur le sujet.

Lorsqu'un utilisateur fait une requête, celle-ci est enrichie à l'aide de vecteurs sémantiques compacts similaires retrouvées dans la base de données vectorielles par l'algorithme des k plus proches voisins (métrique de similarité cosinus). Une fois que nous avons trouvé des vecteur sémantique compact similaires, nous soumettons une requête avec les données associées pour fournir un contexte permettant au grand modèle de langues de mieux répondre à la question.

Français

génération augmentée d'information applicative

GAIA

génération augmentée d'information contextuelle

GAIC

adaptation par enrichissement contextuel

AEC

peaufinage par enrichissement contextuel

PEC

enrichissement contextuel

génération augmentée par récupération

Anglais

retrieval augmented generation

RAG

Sources

Source : towardsdatascience

Source : research.ibm.com

Source: Meta