« Génération augmentée d'information applicative (GAIA) » : différence entre les versions


Aucun résumé des modifications
Balise : Révocation manuelle
 
(3 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 3 : Ligne 3 :


== Compléments ==
== Compléments ==
On ne touche pas au grand modèle de langues, mais on enrichit les requêtes en encodant les données d’entrée avec des [[vecteur contextuel compact|vecteurs contextuels compacts]] (''embeddings'') du domaine d’application. Ces [[vecteur contextuel compact|vecteurs contextuels compacts]] proviennent d'une base de données vectorielles.
On ne touche pas au grand modèle de langues, mais on enrichit les requêtes en encodant les données d’entrée avec des [[vecteur sémantique compact|vecteurs sémantiques compacts]] (''embeddings'') du domaine d’application. Ces [[vecteur sémantique compact|vecteurs sémantiques compacts]] proviennent d'une base de données vectorielles.
<hr/>
<hr/>
Ici, on ne modifie pas le modèle de langues, mais on ajoute un contexte supplémentaire à la requête permettant au [[grand modèle de langues]] de répondre aux questions avec des informations sur le sujet.  
Ici, on ne modifie pas le modèle de langues, mais on ajoute un contexte supplémentaire à la requête permettant au [[grand modèle de langues]] de répondre aux questions avec des informations sur le sujet.  


Lorsqu'un utilisateur fait une requête, celle-ci est enrichie à l'aide de [[vecteur contextuel compact|vecteurs contextuels compacts]] similaires retrouvées dans la base de données vectorielles par l'[[Algorithme des k plus proches voisins|algorithme des k plus proches voisins]] ([[métrique de similarité cosinus]]). Une fois que nous avons trouvé des [[vecteur contextuel compact|vecteur contextuel compact]] similaires, nous soumettons une requête avec les données associées pour fournir un contexte permettant au [[grand modèle de langues]] de mieux répondre à la question.
Lorsqu'un utilisateur fait une requête, celle-ci est enrichie à l'aide de [[vecteur sémantique compact|vecteurs sémantiques compacts]] similaires retrouvées dans la base de données vectorielles par l'[[Algorithme des k plus proches voisins|algorithme des k plus proches voisins]] ([[métrique de similarité cosinus]]). Une fois que nous avons trouvé des [[vecteur sémantique compact|vecteur sémantique compact]] similaires, nous soumettons une requête avec les données associées pour fournir un contexte permettant au [[grand modèle de langues]] de mieux répondre à la question.


== Français ==
== Français ==
Ligne 28 : Ligne 28 :


'''enrichissement contextuel'''
'''enrichissement contextuel'''
'''génération augmentée par récupération'''


== Anglais ==
== Anglais ==
Ligne 33 : Ligne 35 :


'''RAG'''
'''RAG'''


==Sources==
==Sources==
Ligne 41 : Ligne 42 :


[https://arxiv.org/abs/2005.11401v4 Source: Meta]
[https://arxiv.org/abs/2005.11401v4 Source: Meta]
 
[[Catégorie:Intelligence artificielle]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]

Dernière version du 31 octobre 2024 à 04:10

Définition

Méthode d'adaptation, peaufinage des résultats d'un grand modèle de langues par enrichissement des requêtes avec des sources d'informations externes et à jour afin de générer des résultats plus précis et plus utiles.

Compléments

On ne touche pas au grand modèle de langues, mais on enrichit les requêtes en encodant les données d’entrée avec des vecteurs sémantiques compacts (embeddings) du domaine d’application. Ces vecteurs sémantiques compacts proviennent d'une base de données vectorielles.


Ici, on ne modifie pas le modèle de langues, mais on ajoute un contexte supplémentaire à la requête permettant au grand modèle de langues de répondre aux questions avec des informations sur le sujet.

Lorsqu'un utilisateur fait une requête, celle-ci est enrichie à l'aide de vecteurs sémantiques compacts similaires retrouvées dans la base de données vectorielles par l'algorithme des k plus proches voisins (métrique de similarité cosinus). Une fois que nous avons trouvé des vecteur sémantique compact similaires, nous soumettons une requête avec les données associées pour fournir un contexte permettant au grand modèle de langues de mieux répondre à la question.

Français

génération augmentée d'information applicative

GAIA

génération augmentée d'information contextuelle

GAIC

adaptation par enrichissement contextuel

AEC

peaufinage par enrichissement contextuel

PEC

enrichissement contextuel

génération augmentée par récupération

Anglais

retrieval augmented generation

RAG

Sources

Source : towardsdatascience

Source : research.ibm.com

Source: Meta