Nouvelles pages


Nouvelles pages
Masquer utilisateur(s) inscrit(s) | Masquer robot(s) | Afficher redirections(s)
  • 29 mars 2024 à 10:02Feed Forward Neural Networks (hist | modifier) ‎[1 242 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Feed Forward Neural Networks''' Feed-forward Neural Networks, also known as Deep feedforward Networks or Multi-layer Perceptrons, are the focus of this article. For example, Convolutional and Recurrent Neural Networks (which are used extensively in computer vision applications) are based on these networks. We’ll do our best to grasp the key ideas in an engag... »)
  • 29 mars 2024 à 09:18Long-form factuality (hist | modifier) ‎[1 654 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Long-form factuality ''' Large language models (LLMs) often generate content that contains factual errors when responding to fact-seeking prompts on open-ended topics. To benchmark a model's long-form factuality in open domains, we first use GPT-4 to generate LongFact, a prompt set comprising thousands of questions spanning 38 topics. We then propose that LLM... »)
  • 28 mars 2024 à 16:57Verbal Reinforcement Learning (hist | modifier) ‎[1 583 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Verbal Reinforcement Learning''' Large language models (LLMs) have been increasingly used to interact with external environments (e.g., games, compilers, APIs) as goal-driven agents. However, it remains challenging for these language agents to quickly and efficiently learn from trial-and-error as traditional reinforcement learning methods require extensive tra... »)
  • 27 mars 2024 à 09:38Autonomous IA (hist | modifier) ‎[805 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' IA autonome ''' '''intellegence artificielle autonome''' == Anglais == ''' Autonomous artificial intelligence ''' '''Autonomous AI ''' Autonomous AI is an artificial intelligence (AI) solution that can operate and process data without human interaction or oversight. Through the use of autonomous AI, a developer can automate everyday manual data management tasks, including data entr... »)
  • 19 mars 2024 à 15:28Lingualgo (hist | modifier) ‎[1 985 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== XXXXX == Compléments == XXXX ==Français== '''trompe-algorithme''' ==Anglais== '''algospeak''' ==Sources== [https://ici.radio-canada.ca/ohdio/premiere/emissions/moteur-de-recherche/episodes/786692/rattrapage-lundi-5-fevrier-2024, ''Les courriels des auditeurs et des auditrices'', Nicolas de Meeûs] [https://ici.radio-canada.ca/ohdio/premiere/emissions/moteur-de-recherche/episodes/786674/rattrapage-vendredi-2-fevrier-2024, ''Algospeak: Co... ») créé initialement avec le titre « Algospeak »
  • 19 mars 2024 à 14:56Attaque adverse (hist | modifier) ‎[1 911 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Les attaques par entrées malicieuses visent à soumettre des données sournoises ou corrompues à système d'IA en phase de production. == Compléments == Les attaques par entées malicieuses concernent autant les images, les textes ou la voix. Par exemple, on peut vouloir déjouer un système de reconnaissance faciale, On pourrait maquiller un arrêt obligatoire pour qu'il ne soit pas reconnu par un système de vision d'une voiture auto... ») créé initialement avec le titre « Adversarial attack »
  • 14 mars 2024 à 05:22Segmenteur (hist | modifier) ‎[918 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En '''traitement automatique de la langue naturelle''', le segmenteur réalise la segmentation d’un texte en une liste de mots, une liste de morceaux de mots (ou symboles), ou encore une liste de caractères. Typiquement, il s'agit de la première étape de l’analyse lexicale. ==Compléments== On appelle parfois les unités résultant de la segmentation des '''jetons''' (en anglais, ''tokens''), mais le terme '''jeton''' est plut... ») créé initialement avec le titre « Tokenizer »
  • 9 mars 2024 à 11:16R-squared (hist | modifier) ‎[639 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' R-squared''' R-squared is a statistical measure that represents the proportion of the variance in the dependent variable that is explained by the independent variables in the model. An R-squared value of 1 indicates that the model explains all the variance in the dependent variable, and a value of 0 indicates that the model explains none of the variances. ==... »)
  • 9 mars 2024 à 11:15Adjusted R-squared (hist | modifier) ‎[558 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Adjusted R-squared ''' Adjusted R-squared is a modified version of R-squared that accounts for the number of independent variables in the model. It is a better indicator of the model’s goodness of fit when comparing models with different numbers of independent variables. == Source == [https://medium.com/@deasadiqbal/demystifying-machine-learning-a-guided-... »)
  • 6 mars 2024 à 16:20Modèle de récompense (hist | modifier) ‎[2 305 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == En apprentissage par renforcement, le modèle de récompense donne une récompense ou une pénalité en réponse à une action qui est posée par un agent. == Compléments == Dans un grand modèle de langues, l'action serait une requête Dans le cas d'un agent autonome comme un robot aspirateur, le fait de se buter contre un mur va déclencher une pénalité, ce qui permet au robot d'ajuster son comportement. On rencontre parfois le te... »)
  • 6 mars 2024 à 15:48Débridage (hist | modifier) ‎[1 161 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Action qui consiste à contourner les restrictions d'utilisation de différents systèmes informatiques (matériels ou logiciels) dont des grands modèles de langues. == Compléments == L'action correspondante se nomme ''débridage'' et s'effectue, pour un grand modèle de langues, à l'aide d'une ou de plusieurs requêtes astucieusement rédigées. == Français == '''débrider''' '''débridage'... ») créé initialement avec le titre « Jailbreak »
  • 27 février 2024 à 16:31Réseau à base de séquences d'espaces d'états structurés (hist | modifier) ‎[1 744 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== == Compléments == Mamba est exemple de modèle à base de séquences d'espaces d'états structurés développé par des chercheurs de l'Université Carnegie Mellon et de l'Université de Princeton pour répondre à certaines limitations des modèles autoattentifs (''transformers''), en particulier pour le traitement de longues séquences. ==Français== '''modèle à base de séquences d'espaces d'états structurés''... ») créé initialement avec le titre « Structured state space sequence model »
  • 25 février 2024 à 11:13Causal Deep Learning (hist | modifier) ‎[1 848 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Causal Deep Learning''' Causality has the potential to truly transform the way we solve a large number of real-world problems. Yet, so far, its potential largely remains to be unlocked as causality often requires crucial assumptions which cannot be tested in practice. To address this challenge, we propose a new way of thinking about causality -- we call this c... »)
  • 24 février 2024 à 09:48AI Crawler (hist | modifier) ‎[748 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' AI Crawler''' An AI web crawler, driven by sophisticated artificial intelligence algorithms, brings a new level of intelligence to the process of web crawling. These algorithms go beyond mere data fetching; they can comprehend the intricacies of language, discern context, and extract meaningful insights from the vast expanse of digital information. This not on... »)
  • 20 février 2024 à 15:59Empoisonnement de modèle (hist | modifier) ‎[836 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== L'empoisonnement de modèle est le résultat de l'entraînement d'un modèle sur des données empoisonnées. == Compléments == Voir empoisonnement de données. ==Français== '''empoisonnement de modèle''' ==Anglais== '''model poisoning''' ==Sources== Catégorie:Publication ») créé initialement avec le titre « Model poisoning »
  • 20 février 2024 à 15:51Empoisonnement de données (hist | modifier) ‎[1 985 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== L'empoisonnement de données consiste à contaminer un ensemble de données d'apprentissage avec des données conçues pour augmenter les erreurs dans les résultats. == Compléments == Étant donné que les algorithmes d'apprentissage sont façonnés par les données d'apprentissage, on peut ainsi insérer des pixels dans une image afin que le modèle apprenne une image déformée ou même une image qui cachée dans l'image d'origine. En clai... ») créé initialement avec le titre « Data poisoning »
  • 20 février 2024 à 15:20Innovation ouverte (hist | modifier) ‎[1 125 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== == Compléments == ==Français== '''innovation ouverte''' ==Anglais== '''open innovation''' ==Sources== [https://cirano.qc.ca/fr/sommaires/2022RP-05 ''Innovation ouverte et écosystème d’innovation : Implications pour le secteur public'', CIRANO] [https://fr.wikipedia.org/wiki/Innovation_ouverte ''Innovation ouverte'', Wikipedia] [https://en.wikipedia.org/wiki/Open_innovation ''Open innovation'', Wikipedia] Catégorie:Publication ») créé initialement avec le titre « Open innovation »
  • 13 février 2024 à 16:15Erreur d'omission (hist | modifier) ‎[917 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Erreur par laquelle un système d'intelligence artificielle omet d'effectuer une action au moment opportun ou d'inclure des informations pertinentes à ses résultats. == Compléments == L'erreur d'omission s'oppose à l'erreur commission. Les erreurs d'omission sont liées à l'omission d'une action humaine qui aurait dû être effectuée, mais qui n'a pas eu lieu. Les erreurs de commission sont liées à des actions humai... ») créé initialement avec le titre « Omission error »
  • 13 février 2024 à 16:08Erreur de commission (hist | modifier) ‎[922 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Erreur par laquelle un système d'intelligence artificielle effectue une action ou une recommandation incorrecte, inappropriée ou inopportune. == Compléments == L'erreur de commission s'oppose à l'erreur d'omission. ==Français== '''erreur de commission''' ==Anglais== '''commission error''' == Sources == [https://eductive.ca/dico_eductive/#erreurs-commises-par-l-ia ''Dico_Eductive''] [https://vitrinelinguistique.oq... ») créé initialement avec le titre « Commission error »
  • 13 février 2024 à 15:24Synthographie (hist | modifier) ‎[1 063 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== == Compléments == ==Français== '''Synthographie''' ==Anglais== '''Synthography''' '''artificial intelligence art''' '''AI art''' == Sources == [https://cnnumerique.fr/files/uploads/2023/CNNum_Travailler_a_l_heure_du_numerique_corps_et_machines_2022_version_web.pdf ''Travailler à l'heure du numérique'', Conseil national du numérique] [https://eductive.ca/dico_eductive ''Dico_Éductive''] [https://hypercreation.fr/#livre ''Hyperc... ») créé initialement avec le titre « Synthography »
  • 8 février 2024 à 14:17PALP (hist | modifier) ‎[941 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' PALP''' == Anglais == ''' PALP''' Prompt Aligned Personalization is a new paper from Google that allows the creation of images with complex and intricate prompts. Traditional text-to-image AI struggles with complex prompts and personal subjects. PALP's core innovation lies in its unique method of maintaining strict alignment with the textual prompt while incorporating personal or subjectiv... »)
  • 6 février 2024 à 16:33Apprentissage contrastif (hist | modifier) ‎[401 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Apprentissage non supervisé qui consiste à rapprocher les données similaires et à éloigner les données non similaires. == Français == '''apprentissage contrastif''' '''apprentissage contrasté''' == Anglais == '''contrastive learning''' == Sources == [https://towardsdatascience.com/understanding-contrastive-learning-d5b19fd96607 Termium] Catégorie:Publication ») créé initialement avec le titre « Contrastive learning »
  • 30 janvier 2024 à 17:13Préentraînement (hist | modifier) ‎[1 513 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « == Définition == Le préentraînement consiste à entraîner un modèle d'apprentissage, typiquement un grand réseau de neurones profond, pour une tâche générique sur un immense jeu de données Le résultat est un modèle préentraîné qui servira à l'apprentissage par transfert. ==Compléments== Les grands modèles préentraînés pour un problème générique apprennent toutes sortes de régularités statistiques propres au type de do... ») créé initialement avec le titre « Pretraining »
  • 30 janvier 2024 à 15:28Apprentissage autosupervisé contrastif (hist | modifier) ‎[846 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Type d'apprentissage autosupervisé ==Compléments== Contrastive self-supervised learning uses both positive and negative examples. == Français == '''apprentissage autosupervisé contrastif'' == Anglais == '''contrastive self-supervised learning''' == Sources == <small> [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=CONTRASTIVE+SELF-SUPERVISED+LEARNING&codom2nd_wet=1#resultrecs Source : Termium] ... »)
  • 30 janvier 2024 à 11:48Emergent Behavior (hist | modifier) ‎[427 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Emergent Behavior''' Emergent behavior refers to actions or patterns that weren’t explicitly programmed into an AI system but developed as a natural outcome of its complexity and interactions. == Source == [XXX Source : XXX] Catégorie:vocabulary »)
  • 29 janvier 2024 à 16:35Dette technique (hist | modifier) ‎[694 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== La dette technique survient quand les bonnes pratiques de développement logiciel n'ont pas été respectées lors de l'écriture du code. Une conception logicielle négligée va induire des coûts futurs sous forme de temps de réingénierie, de développement logiciel supplémentaire et de corrections de bogues. == Compléments == ==Français== '''dette technique''' ==Anglais== '''technical debt''' ==Sources== <small> [https://fr.wikipe... »)
  • 29 janvier 2024 à 16:28Code jetable (hist | modifier) ‎[925 octets]Claude COULOMBE (discussion | contributions) (cette expression vient d'apparaître et j'ai cru bon de lui donner une traduction rapide) créé initialement avec le titre « Churn code »
  • 25 janvier 2024 à 16:20Préentraînement contrastif langue-image (hist | modifier) ‎[1 292 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Approche qui prend l'entrée d'une image et la description textuelle de l'image et apprend à intégrer les représentations de l'image et du texte sur la surface d'une (hyper) sphère aussi précisément que possible. == Compléments == CLIP est un modèle open source, multimodal et sans prise de vue. À partir d'une image et de descriptions textuelles, le modèle peut prédire la description textuelle la plus pertinente pour cette image, sans o... ») créé initialement avec le titre « CLIP »
  • 25 janvier 2024 à 15:48Neurosciences (hist | modifier) ‎[1 043 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Ensemble des disciplines scientifiques et cliniques qui ont pour objet l'étude de la structure et du fonctionnement du système nerveux (particulièrement du cerveau), de leurs niveaux les plus fondamentaux jusqu'aux plus intégrés. == Compléments == C'est l'interdisciplinarité imposée aujourd'hui par les études sur le cerveau qui est à la base de la création du terme neurosciences; ce dernier englobe notamment la neurobiologie, la neuroc... »)
  • 9 janvier 2024 à 23:23SIRI (hist | modifier) ‎[382 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « == Définition == SIRI (nom propre) est une plateforme d'agent conversationnel ou dialogueur généraliste de la compagnie Apple. ==Compléments== Le Dr. Luc JULIA, d'origine française, est un des principaux concepteurs de SIRI. == Français == '''SIRI''' == Anglais == '''SIRI''' ==Sources== <small> Catégorie:GRAND LEXIQUE FRANÇAIS Catégorie:Publication »)
  • 8 janvier 2024 à 17:18Enchaînement de requêtes (hist | modifier) ‎[1 527 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Enchaînement des requêtes''' == Anglais == ''' Prompt Chaining ''' Prompt chaining is a method used in artificial intelligence (AI) involving a series of related prompts or instructions to direct an AI system or algorithm toward a desired result or answer. Essentially, it involves taking the result of one prompt and using it as the starting point for the next, forming a seamless sequence o... ») créé initialement avec le titre « Prompt Chaining »
  • 8 janvier 2024 à 17:16Filigrane IA (hist | modifier) ‎[331 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Filigrane IA ''' == Anglais == ''' AI Watermark''' An AI watermark is a special type of digital pattern that indicates digital content was machine-generated. <small> [https://www.techopedia.com/definition/ai-watermark Source : techopedia] Catégorie:vocabulary Catégorie:vocabulaire ») créé initialement avec le titre « AI Watermark »
  • 8 janvier 2024 à 17:12AI Jacking (hist | modifier) ‎[1 063 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == '''CYBERSÉCURITÉ'''== == Définition == XXXXXXXXX == Français == ''' Piratage IA ''' == Anglais == ''' AI Jacking''' AI jacking is a new cybersecurity term that explains a specific kind of cyberattack targeting artificial intelligence (AI) systems. It primarily affects popular AI platforms like Hugging Face. This kind of attack is concerning because it can affect a lot of users at once. Th... »)
  • 8 janvier 2024 à 10:27Transformateur Swin (hist | modifier) ‎[503 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Swin Transformer''' Swin Transformer by Microsoft researchers is a family of versatile transformer models adapted for vision tasks. They change the architectural approach compared to the original Vision Transformer model to get state-of-the-art results on various tasks.    <small> [https://arxiv.org/abs/2103.14030 Source : arxiv] Catégorie:voc... ») créé initialement avec le titre « Swin Transformer »
  • 6 janvier 2024 à 19:12Rédactique (hist | modifier) ‎[1 138 octets]Pitpitt (discussion | contributions) (Page créée avec « == Définition == Ensemble des techniques de rédaction orientées vers la formulation précise de requêtes envoyées à un système d'intelligence artificielle, en particulier à un grand modèle de langage, en vue d'en améliorer le fonctionnement ou d'en exploiter efficacement les capacités pour obtenir des résultats plus pertinents. == Français == ''' Rédactique''' == Anglais == ''' prompt engineering ''' <small> [https://vitrinelinguistique.oqlf.gou... »)
  • 6 janvier 2024 à 19:08Rédacticien (hist | modifier) ‎[505 octets]Pitpitt (discussion | contributions) (Page créée avec «  == Définition == Personne experte en rédactique, qui formule avec précision des requêtes afin d'exploiter efficacement les capacités d'un système d'intelligence artificielle ou d'en améliorer le fonctionnement. == Français == ''' rédacticien ''' '''rédacticienne''' == Anglais == ''' prompt engineer''' <small> [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26571210/redacticien Source : GDT ] {{ModèleLGDT}} Catégorie:GDT Ca... »)
  • 5 janvier 2024 à 19:15Trajectoire RT (hist | modifier) ‎[622 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' RT-Trajectory''' we propose RT-Trajectory, a robotic control policy conditioned on trajectory sketches: a novel conditioning method which is practical, easy to specify, and allows effective generalization to novel tasks beyond the training data. <small> [https://www.analyticsvidhya.com/blog/2024/01/google-deepmind-latest-robotics-advancements-autort-sara-rt... ») créé initialement avec le titre « RT-Trajectory »
  • 5 janvier 2024 à 19:10SARA-RT (hist | modifier) ‎[906 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' SARA-RT''' == Anglais == ''' SARA-RT''' Self-Adaptive RobustAttention we present Self-Adaptive Robust Attention for Robotics Transformers (SARA-RT): a new paradigm for addressing the emerging challenge of scaling up Robotics Transformers (RT) for on-robot deployment. SARA-RT relies on the new method of fine-tuning proposed by us, called up-training. It converts pre-trained or already... »)
  • 5 janvier 2024 à 19:07AutoRT (hist | modifier) ‎[496 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' AutoRT''' == Anglais == ''' AutoRT''' Foundation models that incorporate language, vision, and more recently actions have revolutionized the ability to harness internet scale data to reason about useful tasks. However, one of the key challenges of training embodied foundation models is the lack of data grounded in the physical world. <small> [https://auto-rt.github.io/ Source : github]... »)
  • 5 janvier 2024 à 14:35Modèles (hist | modifier) ‎[184 octets]Pitpitt (discussion | contributions) (Page créée avec « {{Modèle:Statistiques}} {{Modèle:101}} {{Modèle:Cybersecurité}} {{Modèle:Photonique}} »)
  • 5 janvier 2024 à 12:35Onde électromagnétique (hist | modifier) ‎[794 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Ondes électromagnétiques''' == Anglais == ''' Electromagnetic waves''' Electromagnetic waves represent the oscillatory propagation in time and space of a natural phenomenon that include electric and magnetic fields. Electromagnetic waves are widely used to carry information. For instance, Radio Frequency (RF) and optical waves. <small> [XXX Source : XXX] {{Modèle:Phonotique}} Catég... ») créé initialement avec le titre « Electromagnetic waves »
  • 3 janvier 2024 à 18:05Modèle encodeur-décodeur (hist | modifier) ‎[2 616 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== Un modèle (ou architecture) encodeur-décodeur sert à implémenter une transformation séquence-à-séquence en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur. Typiquement, on a un texte (ou une séquence de mots ou par... ») créé initialement avec le titre « Encoder decoder »
  • 30 décembre 2023 à 10:43Emu Video (hist | modifier) ‎[1 114 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Emu Video''' == Anglais == ''' Emu Video ''' Emu Video, a text-to-video generation model that factorizes the generation into two steps: first generating an image conditioned on the text, and then generating a video conditioned on the text and the generated image. We identify critical design decisions--adjusted noise schedules for diffusion, and multi-stage training--that enable us to direct... »)
  • 30 décembre 2023 à 10:42Segment Anything (hist | modifier) ‎[619 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Segment Anything'''  Segment Anything (SA) project: a new task, model, and dataset for image segmentation. Using our efficient model in a data collection loop, we built the largest segmentation dataset to date (by far), with over 1 billion masks on 11M licensed and privacy respecting images. The model is designed and trained to be promptable, so it can transfe... »)
  • 30 décembre 2023 à 10:39Mistral 7B (hist | modifier) ‎[414 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' Mistral 7B''' == Anglais == ''' Mistral 7B''' The Mistral 7B paper introduces a compact yet powerful language model that, despite its relatively modest size of 7 billion tokens, outperforms its larger counterparts, such as the 13B Llama 2 model, in various benchmarks. (Next to the two-times larger Qwen 14B, Mistral 7B was also the base model used in the winning solutions of this year's Ne... »)
  • 30 décembre 2023 à 10:38Direct Preference Optimization (hist | modifier) ‎[1 839 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Direct Preference Optimization''' While large-scale unsupervised language models (LMs) learn broad world knowledge and some reasoning skills, achieving precise control of their behavior is difficult due to the completely unsupervised nature of their training. Existing methods for gaining such steerability collect human labels of the relative quality of model g... »)
  • 30 décembre 2023 à 10:37QLoRA (hist | modifier) ‎[1 383 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' QLoRA ''' == Anglais == ''' QLoRA''' QLoRA stands for quantized LoRA (low-rank adaptation). The standard LoRA method modifies a pretrained LLM by adding low-rank matrices to the weights of the model's layers. These matrices are smaller and, therefore, require fewer resources to update during finetuning. In QLoRA, these low-rank matrices are quantized, meaning their numerical precision is... »)
  • 30 décembre 2023 à 10:36LlaMA 2 (hist | modifier) ‎[1 171 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX voir LlaMA == Français == ''' LlaMA 2''' == Anglais == ''' LlaMA 2''' what differentiates the Llama 2 suite from many other LLMs is that the models come as standard pretrained models and chat models that have been finetuned via reinforcement learning with human feedback (RLHF, the method used to create ChatGPT) to follow human instructions similar to ChatGPT — RLHF-finetuned models are still rare. <sm... »)