Risque existentiel


Révision datée du 28 janvier 2024 à 13:12 par Pitpitt (discussion | contributions) (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Le risque existentiel lié à l'intelligence artificielle générale est l'hypothèse selon laquelle des progrès substantiels dans l'intelligence artificielle générale (IAG, en anglais AGI) pourraient un jour entraîner l'extinction de l'homme ou une autre catastrophe mondiale non récupérable.

Français

Risque existentiel

Anglais

Existential risk


Sources

Source : 24pm academie



Contributeurs: Imane Meziani, wiki