Nouvelles pages
- 4 octobre 2024 à 09:38 Génération image-à-texte (hist | modifier) [1 867 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Vision-Language Model''' ''' Vision Language Model''' ''' Visual Language Model''' ''' VLM''' ==Sources== [https://arxiv.org/abs/2405.17247 Source : arxiv] Catégorie:vocabulary ») créé initialement avec le titre « Vision-Language Model »
- 4 octobre 2024 à 09:33 Compréhension massive et multitâche des langues (hist | modifier) [1 223 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Massive Multitask Language Understanding''' ''' MMLU''' ==Sources== [https://en.wikipedia.org/wiki/MMLU Source : Wikipédia] Catégorie:vocabulary ») créé initialement avec le titre « Massive Multitask Language Understanding »
- 4 octobre 2024 à 09:28 Large Language and Vision Assistant (hist | modifier) [1 272 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' LLaVA''' ''' Large Language and Vision Assistant''' ==Sources== [https://arxiv.org/abs/2304.08485 Source : arxiv ] Catégorie:vocabulary ») créé initialement avec le titre « LLaVA »
- 4 octobre 2024 à 09:23 Distillation des connaissances (hist | modifier) [1 026 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Knowledge Distillation''' ''' Model Distillation''' ==Sources== [https://en.wikipedia.org/wiki/Knowledge_distillation#:~:text=In%20machine%20learning%2C%20knowledge%20distillation,might%20not%20be%20fully%20utilized. Source : Wikipédia] Catégorie:vocabulary ») créé initialement avec le titre « Knowledge Distillation »
- 4 octobre 2024 à 09:18 Boucle de rétroaction (hist | modifier) [1 287 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Feedback Loop''' ==Sources== [https://c3.ai/glossary/features/feedback-loop/ Source : C3.ai] Catégorie:vocabulary ») créé initialement avec le titre « Feedback Loop »
- 4 octobre 2024 à 09:10 Factualité (hist | modifier) [850 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Factuality''' ==Sources== [https://medium.com/@neelearning93/factuality-in-large-language-models-what-is-it-how-to-evaluate-it-and-enhance-it-917897da20d5 Source : Medium] Catégorie:vocabulary ») créé initialement avec le titre « Factuality »
- 3 octobre 2024 à 18:01 DMD2 (hist | modifier) [839 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' DMD2''' ==Sources== [https://tianweiy.github.io/dmd2/ Source : github] Catégorie:vocabulary »)
- 3 octobre 2024 à 17:59 Intelligence artificielle causale (hist | modifier) [1 423 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Causal AI''' ==Sources== [https://en.wikipedia.org/wiki/Causal_AI Source : Wikipédia] Catégorie:vocabulary ») créé initialement avec le titre « Causal AI »
- 3 octobre 2024 à 17:54 Test de performances (hist | modifier) [1 686 octets] Arianne (discussion | contributions) (Page créée avec « == en construction == == Définition == xxxxx == Français == ''' Test de performance''' == Anglais == ''' Benchmark''' ==Sources== [https://en.wikipedia.org/wiki/Benchmark_(computing) Source : Wikipédia] Catégorie:vocabulary ») créé initialement avec le titre « Benchmark »
- 30 septembre 2024 à 09:23 Table Augmented Generation (hist | modifier) [1 561 octets] Pitpitt (discussion | contributions) (Page créée avec « == en construction == == Définition == == Français == ''' xxxxx ''' == Anglais == ''' Table Augmented Generation''' '''TAG''' Table Augmented Generation (TAG) is a new approach in natural language processing (NLP) that merges structured data, such as tables, with text generation models. The goal of TAG is to enhance the accuracy, relevance, and depth of machine-generated content by allowing models to reference and reason over tabular data. By integrating... »)
- 24 septembre 2024 à 14:40 Stratégie des fins et des moyens (hist | modifier) [462 octets] Patrickdrouin (discussion | contributions) (Page créée avec « == en construction == == Définition == == Complément == == Français == ''' stratégie des fins et des moyens ''' ''' analyse moyens-fin ''' == Anglais == ''' means-end analysis ''' ==Sources== [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/17014378/analyse-moyens-fin Source : OQLF] [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8393882/strategie-des-fins-et-des-moyens Source : OQLF] Catégorie:Publication »)
- 24 septembre 2024 à 14:36 General problem solver (hist | modifier) [857 octets] Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Nom propre qui désigne un programme informatique créé entre 1957 et 1959 par Herbert Simon, Cliff Shaw et Allen Newell qui avait pour but de simuler la résolution de problèmes par l'humain. == Complément == La stratégie employée par GPS se fonde la stratégie des fins et des moyens (en anglais ''means-ends analysis''). Cette stratégie de résolution de problèmes est largement utilisée dans le domaine de l'intelligence artificiel... »)
- 17 septembre 2024 à 14:25 Fenêtre contextuelle (hist | modifier) [986 octets] Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Dans le domaine de l'intelligence artificielle générative, la fenêtre contextuelle ou fenêtre de contexte d'un modèle de langues est la quantité de texte (en nombre de mots ou de segments) que ce modèle peut traiter en une fois pour réaliser des tâches de traitement automatique de la langue ou de génération de texte. == Compléments == == Français == ''' fenêtre contextuelle ''' '''... ») créé initialement avec le titre « Context window »
- 17 septembre 2024 à 13:59 OpenAI o1 (hist | modifier) [1 760 octets] Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Grand modèle de langues publié par la société OpenAI qui se démarque des modèles précédents par un enrichissement dans certains domaines scientifiques et par l'utilisation de requêtes de décomposition (''chain of thought''). == Compléments == Le modèle a été lancé le 12 septembre 2024. Au même moment, la société lançait le modèle o1 mini qui est limité aux domaines scientifiques. == Fra... »)
- 15 septembre 2024 à 16:26 Requête d'un squelette de résolution (hist | modifier) [1 198 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « == Définition == Requête ayant pour but de demander à un robot conversationnel génératif (ex.: ChatGPT) de répondre en décomposant les différentes étapes de la résolution d'un problème en commençant par générer un squelette de la solution. == Complément == Notez que nous hésitons à utiliser le terme ''raisonnement'', lui préférant le terme ''résolution de problème''. La question à savoir si les grands modèles de langue raisonnent... ») créé initialement avec le titre « Skeleton-of–Thought »
- 8 septembre 2024 à 05:23 Générer et tester (hist | modifier) [887 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En intelligence artificielle, le méta-algorithme « générer et tester » est une technique de résolution de problèmes très générale et un paradigme algorithmique qui consiste à vérifier systématiquement tous les candidats possibles pour savoir si chaque candidat satisfait ou non les conditions exigées. == Compléments == Le méta-algorithme « générer et tester » est également connu sous le nom de recherche par force brute ou re... ») créé initialement avec le titre « Generate-and-test »
- 6 septembre 2024 à 08:10 Modulation (hist | modifier) [722 octets] Arianne (discussion | contributions) (Page créée avec « == '''PHOTONIQUE '''== == Définition == La modulation représente le processus d’encodage de données sur un signal porteur en faisant varier une ou plusieurs de ses caractéristiques telles que l’amplitude ou la phase de l’'''onde électromagnétique'''. == Français == ''' modulation ''' == Anglais == ''' modulation ''' ''The modulation is the process of encoding data to an optical carrier signal by varying one or more... »)
- 6 septembre 2024 à 08:04 Multiplexage par répartition en mode (hist | modifier) [2 032 octets] Arianne (discussion | contributions) (Page créée avec « == '''PHOTONIQUE '''== == Définition == La technique de multiplexage par répartition en mode exploite la transmission de données multimodes pour augmenter la capacité du canal. La conception des composants de multiplexage par répartition en mode nécessite de minimiser la diaphonie intermodale, c’est-à-dire le couplage d’énergie indésirable entre deux modes. Le développement de composants à multiplexage par répartitio... »)
- 6 septembre 2024 à 07:51 Émission stimulée (hist | modifier) [1 741 octets] Arianne (discussion | contributions) (Page créée avec « == '''PHOTONIQUE '''== == Définition == L’émission stimulée réfère au processus d’émission de photons par les atomes. Elle se produit lorsqu’un atome excité dans un état d’énergie supérieur interagit avec un '''photon''' ayant une énergie qui équivaut à la différence d’énergie de l’atome entre les deux états. Cette interaction fait que l’atome excité émet un photon identique, avec la même énergie,... »)
- 27 août 2024 à 20:22 Apprentissage par Renforcement avec retour humain (hist | modifier) [469 octets] Pitpitt (discussion | contributions) (Page créée avec « == en construction == https://www.youtube.com/watch?v=z7n8bkVynzo == Définition == == Français == ''' Apprentissage par Renforcement avec retour humain''' '''RLHF''' == Anglais == ''' xxxxx ''' ==Sources== [https://www.louisbouchard.ca/blog-ia/rlhf-et-rlaif PARLONS IA ] {{Modèle:Quantique}} Catégorie:Q2 Catégorie:vocabulaire »)
- 27 août 2024 à 14:33 LlamaIndex (hist | modifier) [771 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== Nom propre d'une bibliothèque Python et JavaScript en code source ouvert (licence MIT) offrant un socle (framework) permettant de créer des applications basées sur de grands modèles de langues (GML). LlamaIndex fournit des outils et des abstractions pour améliorer la personnalisation, la précision et la pertinence des résultats. ==Français== '''LlamaIndex''' ==Anglais== '''LlamaIndex''' ==Sources== [https:... »)
- 27 août 2024 à 14:27 LangChain (hist | modifier) [767 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== Nom propre d'une bibliothèque Python et JavaScript en code source ouvert (licence MIT) offrant un socle (framework) permettant de créer des applications basées sur de grands modèles de langues (GML). LangChain fournit des outils et des abstractions pour améliorer la personnalisation, la précision et la pertinence des résultats. ==Français== '''LangChain''' ==Anglais== '''LangChain''' ==Sources== [https://w... »)
- 27 août 2024 à 14:09 IA agentique (hist | modifier) [1 842 octets] Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En intelligence artificielle (IA), l'IA agentique est un système composé d’un ensemble d’agents (système multiagent) ayant un comportement orienté vers un objectif (une tâche) et une prise de décision adaptative (environnement). ==Compléments== Le terme anglais « agentic AI » est apparu au printemps 2024 à la faveur de l'utilisation des grands modèles de langues (GML) dans un système multiagent... ») créé initialement avec le titre « Agentic AI »