Nouvelles pages


Nouvelles pages
Masquer utilisateur(s) inscrit(s) | Masquer robot(s) | Afficher redirections(s)
  • 16 avril 2024 à 19:06Boîte quantique (hist | modifier) ‎[856 octets]Pitpitt (discussion | contributions) (Page créée avec « == Définition == Nanostructure, généralement semi-conductrice, permettant le confinement des porteurs de charge dans les trois dimensions de l'espace. Notes: Les porteurs de charge concernés sont l'électron et le trou. Le confinement confère à la boîte quantique des propriétés similaires à celles d'un atome. Les boîtes quantiques peuvent servir de support physique aux bits quantiques. == Français == ''' boîte quantique''' '''point quantique'''... »)
  • 14 avril 2024 à 20:49Bit quantique topologique (hist | modifier) ‎[723 octets]Pitpitt (discussion | contributions) (Page créée avec « == Définition == Bit quantique ayant pour support physique un système quantique dont les états présentent des topologies différentes, ce qui, en théorie, le protégerait contre les perturbations locales. Notes: L'anyon est le principal système quantique étudié en lien avec la conception du bit quantique topologique. == Français == ''' Bit quantique topologique''' '''qubit topologique''' == Anglais == '''topological quantum bit''' '''topological qu... »)
  • 14 avril 2024 à 20:46Bit quantique supraconducteur (hist | modifier) ‎[673 octets]Pitpitt (discussion | contributions) (Page créée avec «  == Définition == XXXXXXXXX == Français == ''' Bit quantique supraconducteur''' ''' Qubit quantique supraconducteur''' == Anglais == ''' logical quantum bit''' '''logical qubit''' == Source == [https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26560828/bit-quantique-logique Source : vitrinelinguistique ] {{Modèle:GDT}} {{Modèle:Quantique}} Catégorie:GRAND LEXIQUE FRANÇAIS Catégorie:vocabulaire »)
  • 14 avril 2024 à 20:41Algorithme quantique (hist | modifier) ‎[706 octets]Pitpitt (discussion | contributions) (Page créée avec «  == Définition == Algorithme permettant d'effectuer des opérations en tirant profit de la superposition, de l'intrication et de l'interférence quantiques. Notes: Les algorithmes quantiques sont exécutés notamment par des ordinateurs quantiques et des simulateurs quantiques. Par exemple, les algorithmes de Shor et de Grover sont des algorithmes quantiques. == Français == ''' algorithme quantique''' == Anglais == ''' quantum algorithm''' == Source == [h... »)
  • 12 avril 2024 à 08:49Unified Feedback Learning (hist | modifier) ‎[1 646 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Unified Feedback Learning''' Diffusion models have revolutionized the field of image generation, leading to the proliferation of high-quality models and diverse downstream applications. However, despite these significant advancements, the current competitive solutions still suffer from several limitations, including inferior visual quality, a lack of aesthetic... »)
  • 11 avril 2024 à 17:23MOEMS (hist | modifier) ‎[336 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Microoptoelectromechanical systems ''' '''MOEMS''' == Source == [XXX Source : XXX] {{Modèle:Photonique}} Catégorie:photonique Catégorie:vocabulary »)
  • 11 avril 2024 à 17:06Structured State Space Sequence (hist | modifier) ‎[1 007 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX >>>>>>> VOIR Réseau à base de séquences d'espaces d'états structurés == Français == ''' séquences d'espaces d'états structurés''' == Anglais == ''' Structured State Space Sequence ''' '''S4'''  S4s, also known as structured SSMs, can be functionally similar to recurrent neural networks (RNNs): They can accept one token at time and produce a linear combination of the current token and an embeddi... »)
  • 9 avril 2024 à 15:16Many-shot jailbreaking (hist | modifier) ‎[913 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' voir Débridage == Anglais == ''' Many-shot jailbreaking ''' We investigate a family of simple long-context attacks on large language models: prompting with hundreds of demonstrations of undesirable behavior. This is newly feasible with the larger context windows recently deployed by Anthropic, OpenAI and Google DeepMind. We find that in diverse, realistic circumstances,... »)
  • 9 avril 2024 à 14:53Génération texte-à-vidéo (hist | modifier) ‎[2 013 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == La génération texte-à-image utilise un ''modèle génératif'' pour produire des images inspirées d'un texte ou d'une requête fournie en entrée. L'usager tape une requête qui décrit l'image et le modèle génératif texte-à-image produit des images. Par exemple, en tapant la phrase « un astronaute à cheval selon un rendu photoréaliste », on obtiendra une image de synthè... »)
  • 9 avril 2024 à 14:50Sora (hist | modifier) ‎[1 135 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « == Définition == Sora (nom propre) est une plateforme d'IA générative texte-vers-vidéo annoncée par OpenAI le 15 février 2024. Plus précisément, un modèle texte-vers-vidéo prend une courte description textuelle en entrée pour produire un clip vidéo. == Compléments == == Français == '''Sora''' == Anglais == '''Sora''' ==Sources== [https://ici.radio-canada.ca/nouvelle/2050048/sora-generateur-ia-openai Sora, le nouveau générateur de vidéos... »)
  • 9 avril 2024 à 14:33PornAI (hist | modifier) ‎[1 409 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Utilisation de l'intelligence artificielle pour la pornographie. ==Compléments== Par exemple, elle pourrait prendre la forme de relations à connotation sexuelle plus ou moins explicite entre un être humain et un système d'IA, typiquement un agent conversationnel. Une autre utilisation consiste à générer de fausses vidéos pornographiques mélangeant des images de vraies personnes à des images de synthèse. On parle alors d'hyp... ») créé initialement avec le titre « Porn AI »
  • 8 avril 2024 à 08:50Representation Fine-Tuning (hist | modifier) ‎[595 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Representation Fine-Tuning ''' PYREFT, a representation fine-tuning (ReFT) library that supports adapting internal language model representations via trainable interventions. With fewer fine-tuning parameters and more robust performance, pyreft can boost fine-tuning efficiency, decrease fine-tuning cost, while opening the doors to study the interpretabilit... »)
  • 2 avril 2024 à 16:15Gemini (hist | modifier) ‎[1 228 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « == Définition == Gemini (nom propre) est une plateforme d'IA générative multimodale (textes, images, vidéo, audio) annoncée par Google le 6 décembre 2023, suivie d'une mise à jour importante vers la version Gemini Pro 1.5 le 15 février 2024. == Compléments == Gemini est décliné en trois versions: Gemini Ultra, la plus grande et la plus performante; Gemini Nano, nettement plus petite et plus efficace; et la version Gemini Pro, de taille et de capac... »)
  • 2 avril 2024 à 15:28RomancIA (hist | modifier) ‎[1 736 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== ==Compléments== == Français == '''romancIA''' '''romance IA''' ''' romance d'IA''' '''IA romantique''' == Anglais == '''AI romance''' ==Sources== [https://www.cbc.ca/news/world/artificial-intelligence-companion-apps-1.7114695, ''AI chatbots are sparking romance (with the chatbot, that is)'', CBC - Haleluya Hadero] [https://foundation.mozilla.org/en/privacynotincluded/articles/happy-valentines-day-romantic-ai-chatbots-dont-have-your-pr... ») créé initialement avec le titre « AI romance »
  • 2 avril 2024 à 15:00Effondrement du modèle (hist | modifier) ‎[1 214 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== ==Compléments== == Français == '''effondrement du modèle''' == Anglais == '''model collapse''' ==Sources== [https://www.legalgpt.eu/comprendre/reflexions-donnees-large-language-models/ ''Originalité ou effondrement des modèles, il faudra choisir...'', Raphael d'Assignies] [https://www.lemonde.fr/pixels/article/2023/09/10/l-intelligence-artificielle-peut-elle-s-effondrer-sur-elle-meme_6188777_4408996.html ''L’intelligence artific... ») créé initialement avec le titre « Effondrement des modèles »
  • 2 avril 2024 à 14:49Merdification (hist | modifier) ‎[1 340 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== La merdification est la dégradation de qualité qui affecte progressivement les plate-formes numériques et le contenu de la Toile en général. ==Compléments== Ce phénomène est souvent lié à la coexistence sur les plateformes numériques d'informations objectives et de contenus commerciaux (publicités, commandites, etc.) plus ou moins bien ciblés. Les moteurs de recherche, les modèles d'apprentissages sont également touchés car ils s... ») créé initialement avec le titre « Enshittification »
  • 2 avril 2024 à 09:24Distribution Matching Distillation (hist | modifier) ‎[791 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Distribution Matching Distillation''' MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) researchers have introduced a new framework that simplifies the multi-step process of traditional diffusion models into a single step, addressing previous limitations. This is done through a type of teacher-student model: teaching a new computer model to m... »)
  • 2 avril 2024 à 09:23Multiscale Vision Transformers (hist | modifier) ‎[1 418 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Multiscale Vision Transformers''' We present Multiscale Vision Transformers (MViT) for video and image recognition, by connecting the seminal idea of multiscale feature hierarchies with transformer models. Multiscale Transformers have several channel-resolution scale stages. Starting from the input resolution and a small channel dimension, the stages hierarchi... »)
  • 31 mars 2024 à 08:00Opérateur d'importance vitale (hist | modifier) ‎[690 octets]Imeziani (discussion | contributions) (Page créée avec « == Définition == Personne morale, publique ou privée qui gère ou utilise des établissements ou des ouvrages dont la destruction ou même l’indisponibilité obéreraient gravement le potentiel militaire, la force économique, la sécurité, voire la capacité de survie d’un État, ou mettraient en danger sa population. == Français == '''opérateur d'importance vitale''' '''OIV''' == Anglais == '''Operator of critical national infrastructures''' ==Sourc... »)
  • 29 mars 2024 à 10:02Feed Forward Neural Networks (hist | modifier) ‎[1 242 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Feed Forward Neural Networks''' Feed-forward Neural Networks, also known as Deep feedforward Networks or Multi-layer Perceptrons, are the focus of this article. For example, Convolutional and Recurrent Neural Networks (which are used extensively in computer vision applications) are based on these networks. We’ll do our best to grasp the key ideas in an engag... »)
  • 29 mars 2024 à 09:18Long-form factuality (hist | modifier) ‎[1 654 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Long-form factuality ''' Large language models (LLMs) often generate content that contains factual errors when responding to fact-seeking prompts on open-ended topics. To benchmark a model's long-form factuality in open domains, we first use GPT-4 to generate LongFact, a prompt set comprising thousands of questions spanning 38 topics. We then propose that LLM... »)
  • 28 mars 2024 à 16:57Verbal Reinforcement Learning (hist | modifier) ‎[1 583 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Verbal Reinforcement Learning''' Large language models (LLMs) have been increasingly used to interact with external environments (e.g., games, compilers, APIs) as goal-driven agents. However, it remains challenging for these language agents to quickly and efficiently learn from trial-and-error as traditional reinforcement learning methods require extensive tra... »)
  • 27 mars 2024 à 09:38Autonomous IA (hist | modifier) ‎[805 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' IA autonome ''' '''intellegence artificielle autonome''' == Anglais == ''' Autonomous artificial intelligence ''' '''Autonomous AI ''' Autonomous AI is an artificial intelligence (AI) solution that can operate and process data without human interaction or oversight. Through the use of autonomous AI, a developer can automate everyday manual data management tasks, including data entr... »)
  • 19 mars 2024 à 15:28Lingualgo (hist | modifier) ‎[1 985 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== XXXXX == Compléments == XXXX ==Français== '''trompe-algorithme''' ==Anglais== '''algospeak''' ==Sources== [https://ici.radio-canada.ca/ohdio/premiere/emissions/moteur-de-recherche/episodes/786692/rattrapage-lundi-5-fevrier-2024, ''Les courriels des auditeurs et des auditrices'', Nicolas de Meeûs] [https://ici.radio-canada.ca/ohdio/premiere/emissions/moteur-de-recherche/episodes/786674/rattrapage-vendredi-2-fevrier-2024, ''Algospeak: Co... ») créé initialement avec le titre « Algospeak »
  • 19 mars 2024 à 14:56Attaque adverse (hist | modifier) ‎[1 911 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Les attaques par entrées malicieuses visent à soumettre des données sournoises ou corrompues à système d'IA en phase de production. == Compléments == Les attaques par entées malicieuses concernent autant les images, les textes ou la voix. Par exemple, on peut vouloir déjouer un système de reconnaissance faciale, On pourrait maquiller un arrêt obligatoire pour qu'il ne soit pas reconnu par un système de vision d'une voiture auto... ») créé initialement avec le titre « Adversarial attack »
  • 14 mars 2024 à 05:22Segmenteur (hist | modifier) ‎[918 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== En '''traitement automatique de la langue naturelle''', le segmenteur réalise la segmentation d’un texte en une liste de mots, une liste de morceaux de mots (ou symboles), ou encore une liste de caractères. Typiquement, il s'agit de la première étape de l’analyse lexicale. ==Compléments== On appelle parfois les unités résultant de la segmentation des '''jetons''' (en anglais, ''tokens''), mais le terme '''jeton''' est plut... ») créé initialement avec le titre « Tokenizer »
  • 9 mars 2024 à 11:16R-squared (hist | modifier) ‎[639 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' R-squared''' R-squared is a statistical measure that represents the proportion of the variance in the dependent variable that is explained by the independent variables in the model. An R-squared value of 1 indicates that the model explains all the variance in the dependent variable, and a value of 0 indicates that the model explains none of the variances. ==... »)
  • 9 mars 2024 à 11:15Adjusted R-squared (hist | modifier) ‎[558 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Adjusted R-squared ''' Adjusted R-squared is a modified version of R-squared that accounts for the number of independent variables in the model. It is a better indicator of the model’s goodness of fit when comparing models with different numbers of independent variables. == Source == [https://medium.com/@deasadiqbal/demystifying-machine-learning-a-guided-... »)
  • 6 mars 2024 à 16:20Modèle de récompense (hist | modifier) ‎[2 305 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == En apprentissage par renforcement, le modèle de récompense donne une récompense ou une pénalité en réponse à une action qui est posée par un agent. == Compléments == Dans un grand modèle de langues, l'action serait une requête Dans le cas d'un agent autonome comme un robot aspirateur, le fait de se buter contre un mur va déclencher une pénalité, ce qui permet au robot d'ajuster son comportement. On rencontre parfois le te... »)
  • 6 mars 2024 à 15:48Débridage (hist | modifier) ‎[1 161 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Action qui consiste à contourner les restrictions d'utilisation de différents systèmes informatiques (matériels ou logiciels) dont des grands modèles de langues. == Compléments == L'action correspondante se nomme ''débridage'' et s'effectue, pour un grand modèle de langues, à l'aide d'une ou de plusieurs requêtes astucieusement rédigées. == Français == '''débrider''' '''débridage'... ») créé initialement avec le titre « Jailbreak »
  • 27 février 2024 à 16:31Réseau à base de séquences d'espaces d'états structurés (hist | modifier) ‎[1 768 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== == Compléments == Mamba est exemple de modèle à base de séquences d'espaces d'états structurés développé par des chercheurs de l'Université Carnegie Mellon et de l'Université de Princeton pour répondre à certaines limitations des modèles autoattentifs (''transformers''), en particulier pour le traitement de longues séquences. ==Français== '''modèle à base de séquences d'espaces d'états structurés''... ») créé initialement avec le titre « Structured state space sequence model »
  • 25 février 2024 à 11:13Causal Deep Learning (hist | modifier) ‎[1 848 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Causal Deep Learning''' Causality has the potential to truly transform the way we solve a large number of real-world problems. Yet, so far, its potential largely remains to be unlocked as causality often requires crucial assumptions which cannot be tested in practice. To address this challenge, we propose a new way of thinking about causality -- we call this c... »)
  • 24 février 2024 à 09:48AI Crawler (hist | modifier) ‎[748 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' AI Crawler''' An AI web crawler, driven by sophisticated artificial intelligence algorithms, brings a new level of intelligence to the process of web crawling. These algorithms go beyond mere data fetching; they can comprehend the intricacies of language, discern context, and extract meaningful insights from the vast expanse of digital information. This not on... »)
  • 20 février 2024 à 15:59Empoisonnement de modèle (hist | modifier) ‎[836 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== L'empoisonnement de modèle est le résultat de l'entraînement d'un modèle sur des données empoisonnées. == Compléments == Voir empoisonnement de données. ==Français== '''empoisonnement de modèle''' ==Anglais== '''model poisoning''' ==Sources== Catégorie:Publication ») créé initialement avec le titre « Model poisoning »
  • 20 février 2024 à 15:51Empoisonnement de données (hist | modifier) ‎[1 985 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== L'empoisonnement de données consiste à contaminer un ensemble de données d'apprentissage avec des données conçues pour augmenter les erreurs dans les résultats. == Compléments == Étant donné que les algorithmes d'apprentissage sont façonnés par les données d'apprentissage, on peut ainsi insérer des pixels dans une image afin que le modèle apprenne une image déformée ou même une image qui cachée dans l'image d'origine. En clai... ») créé initialement avec le titre « Data poisoning »
  • 20 février 2024 à 15:20Innovation ouverte (hist | modifier) ‎[1 125 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== == Compléments == ==Français== '''innovation ouverte''' ==Anglais== '''open innovation''' ==Sources== [https://cirano.qc.ca/fr/sommaires/2022RP-05 ''Innovation ouverte et écosystème d’innovation : Implications pour le secteur public'', CIRANO] [https://fr.wikipedia.org/wiki/Innovation_ouverte ''Innovation ouverte'', Wikipedia] [https://en.wikipedia.org/wiki/Open_innovation ''Open innovation'', Wikipedia] Catégorie:Publication ») créé initialement avec le titre « Open innovation »
  • 13 février 2024 à 16:15Erreur d'omission (hist | modifier) ‎[917 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Erreur par laquelle un système d'intelligence artificielle omet d'effectuer une action au moment opportun ou d'inclure des informations pertinentes à ses résultats. == Compléments == L'erreur d'omission s'oppose à l'erreur commission. Les erreurs d'omission sont liées à l'omission d'une action humaine qui aurait dû être effectuée, mais qui n'a pas eu lieu. Les erreurs de commission sont liées à des actions humai... ») créé initialement avec le titre « Omission error »
  • 13 février 2024 à 16:08Erreur de commission (hist | modifier) ‎[922 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Erreur par laquelle un système d'intelligence artificielle effectue une action ou une recommandation incorrecte, inappropriée ou inopportune. == Compléments == L'erreur de commission s'oppose à l'erreur d'omission. ==Français== '''erreur de commission''' ==Anglais== '''commission error''' == Sources == [https://eductive.ca/dico_eductive/#erreurs-commises-par-l-ia ''Dico_Eductive''] [https://vitrinelinguistique.oq... ») créé initialement avec le titre « Commission error »
  • 13 février 2024 à 15:24Synthographie (hist | modifier) ‎[1 063 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== == Compléments == ==Français== '''Synthographie''' ==Anglais== '''Synthography''' '''artificial intelligence art''' '''AI art''' == Sources == [https://cnnumerique.fr/files/uploads/2023/CNNum_Travailler_a_l_heure_du_numerique_corps_et_machines_2022_version_web.pdf ''Travailler à l'heure du numérique'', Conseil national du numérique] [https://eductive.ca/dico_eductive ''Dico_Éductive''] [https://hypercreation.fr/#livre ''Hyperc... ») créé initialement avec le titre « Synthography »
  • 8 février 2024 à 14:17PALP (hist | modifier) ‎[941 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' PALP''' == Anglais == ''' PALP''' Prompt Aligned Personalization is a new paper from Google that allows the creation of images with complex and intricate prompts. Traditional text-to-image AI struggles with complex prompts and personal subjects. PALP's core innovation lies in its unique method of maintaining strict alignment with the textual prompt while incorporating personal or subjectiv... »)
  • 6 février 2024 à 16:33Apprentissage contrastif (hist | modifier) ‎[401 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Apprentissage non supervisé qui consiste à rapprocher les données similaires et à éloigner les données non similaires. == Français == '''apprentissage contrastif''' '''apprentissage contrasté''' == Anglais == '''contrastive learning''' == Sources == [https://towardsdatascience.com/understanding-contrastive-learning-d5b19fd96607 Termium] Catégorie:Publication ») créé initialement avec le titre « Contrastive learning »
  • 30 janvier 2024 à 17:13Préentraînement (hist | modifier) ‎[1 513 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « == Définition == Le préentraînement consiste à entraîner un modèle d'apprentissage, typiquement un grand réseau de neurones profond, pour une tâche générique sur un immense jeu de données Le résultat est un modèle préentraîné qui servira à l'apprentissage par transfert. ==Compléments== Les grands modèles préentraînés pour un problème générique apprennent toutes sortes de régularités statistiques propres au type de do... ») créé initialement avec le titre « Pretraining »
  • 30 janvier 2024 à 15:28Apprentissage autosupervisé contrastif (hist | modifier) ‎[846 octets]Patrickdrouin (discussion | contributions) (Page créée avec « == Définition == Type d'apprentissage autosupervisé ==Compléments== Contrastive self-supervised learning uses both positive and negative examples. == Français == '''apprentissage autosupervisé contrastif'' == Anglais == '''contrastive self-supervised learning''' == Sources == <small> [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=CONTRASTIVE+SELF-SUPERVISED+LEARNING&codom2nd_wet=1#resultrecs Source : Termium] ... »)
  • 30 janvier 2024 à 11:48Emergent Behavior (hist | modifier) ‎[427 octets]Pitpitt (discussion | contributions) (Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Emergent Behavior''' Emergent behavior refers to actions or patterns that weren’t explicitly programmed into an AI system but developed as a natural outcome of its complexity and interactions. == Source == [XXX Source : XXX] Catégorie:vocabulary »)
  • 29 janvier 2024 à 16:35Dette technique (hist | modifier) ‎[694 octets]Claude COULOMBE (discussion | contributions) (Page créée avec « ==Définition== La dette technique survient quand les bonnes pratiques de développement logiciel n'ont pas été respectées lors de l'écriture du code. Une conception logicielle négligée va induire des coûts futurs sous forme de temps de réingénierie, de développement logiciel supplémentaire et de corrections de bogues. == Compléments == ==Français== '''dette technique''' ==Anglais== '''technical debt''' ==Sources== <small> [https://fr.wikipe... »)
  • 29 janvier 2024 à 16:28Code jetable (hist | modifier) ‎[925 octets]Claude COULOMBE (discussion | contributions) (cette expression vient d'apparaître et j'ai cru bon de lui donner une traduction rapide) créé initialement avec le titre « Churn code »
  • 25 janvier 2024 à 16:20Préentraînement contrastif langue-image (hist | modifier) ‎[1 292 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Approche qui prend l'entrée d'une image et la description textuelle de l'image et apprend à intégrer les représentations de l'image et du texte sur la surface d'une (hyper) sphère aussi précisément que possible. == Compléments == CLIP est un modèle open source, multimodal et sans prise de vue. À partir d'une image et de descriptions textuelles, le modèle peut prédire la description textuelle la plus pertinente pour cette image, sans o... ») créé initialement avec le titre « CLIP »
  • 25 janvier 2024 à 15:48Neurosciences (hist | modifier) ‎[1 043 octets]Patrickdrouin (discussion | contributions) (Page créée avec « ==Définition== Ensemble des disciplines scientifiques et cliniques qui ont pour objet l'étude de la structure et du fonctionnement du système nerveux (particulièrement du cerveau), de leurs niveaux les plus fondamentaux jusqu'aux plus intégrés. == Compléments == C'est l'interdisciplinarité imposée aujourd'hui par les études sur le cerveau qui est à la base de la création du terme neurosciences; ce dernier englobe notamment la neurobiologie, la neuroc... »)