« Génération augmentée d'information applicative » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Méthode d'adaptation, [[peaufinage]] des résultats d'un [[grand modèle de langues]] en encodant les données d’entrée avec des [[vecteur contextuel compact|vecteurs contextuels compacts]] (''embeddings'') du domaine d’application contenues dans une base de données vectorielles.
Méthode d'adaptation, [[peaufinage]] des résultats d'un [[grand modèle de langues]] par enrichissement des requêtes avec des sources d'informations externes et à jour afin de générer des résultats plus précis et plus utiles.


== Compléments ==
== Compléments ==
On ne touche pas au grand modèle de langues, mais on enrichit les requêtes en encodant les données d’entrée avec des [[vecteur contextuel compact|vecteurs contextuels compacts]] (''embeddings'') du domaine d’application. Ces [[vecteur contextuel compact|vecteurs contextuels compacts]] proviennent d'une base de données vectorielles.
<hr/>
Ici, on ne modifie pas le modèle de langues, mais on ajoute un contexte supplémentaire à la requête permettant au [[grand modèle de langues]] de répondre aux questions avec des informations sur le sujet.  
Ici, on ne modifie pas le modèle de langues, mais on ajoute un contexte supplémentaire à la requête permettant au [[grand modèle de langues]] de répondre aux questions avec des informations sur le sujet.  



Version du 8 janvier 2024 à 00:11

Définition

Méthode d'adaptation, peaufinage des résultats d'un grand modèle de langues par enrichissement des requêtes avec des sources d'informations externes et à jour afin de générer des résultats plus précis et plus utiles.

Compléments

On ne touche pas au grand modèle de langues, mais on enrichit les requêtes en encodant les données d’entrée avec des vecteurs contextuels compacts (embeddings) du domaine d’application. Ces vecteurs contextuels compacts proviennent d'une base de données vectorielles.


Ici, on ne modifie pas le modèle de langues, mais on ajoute un contexte supplémentaire à la requête permettant au grand modèle de langues de répondre aux questions avec des informations sur le sujet.

Lorsqu'un utilisateur fait une requête, celle-ci est enrichie à l'aide de vecteurs contextuels compacts similaires retrouvées dans la base de données vectorielles par l'algorithme des k plus proches voisins (métrique de similarité cosinus). Une fois que nous avons trouvé des vecteur contextuel compact similaires, nous soumettons une requête avec les données associées pour fournir un contexte permettant au grand modèle de langues de mieux répondre à la question.

Français

génération augmentée d'information contextuelle

GAIC

adaptation par enrichissement contextuel

AEC

peaufinage par enrichissement contextuel

PEC

enrichissement contextuel

Anglais

retrieval augmented generation

RAG

Source : research.ibm.com

Source: Meta