« Sûreté de l'intelligence artificielle » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
Ligne 14 : | Ligne 14 : | ||
''' AI security ''' | ''' AI security ''' | ||
==Sources== | |||
[ https://www.vectra.ai/learning/ai-security Source: Vectra AI ] | [ https://www.vectra.ai/learning/ai-security Source: Vectra AI ] |
Dernière version du 28 janvier 2024 à 12:57
Définition
Un domaine interdisciplinaire qui s'intéresse aux impacts à long terme de l'IA et à la façon dont elle pourrait évoluer soudainement vers une superintelligence qui pourrait être hostile aux humains.
Il a pour but d'empêcher les accidents, abus ou autres conséquences néfastes pouvant résulter des systèmes d'intelligence artificielle. Cela englobe notamment l'éthique des machines et l'alignement des intelligences artificielles (qui visent à rendre les systèmes d'IA moraux et bénéfiques), la conception de haute fiabilité et la surveillance des systèmes d'IA, mais aussi le développement de normes et de politiques favorisant la sécurité.
Français
sûreté de l'intelligence artificielle
sûreté de l'IA
Anglais
artificial intelligence security
AI security
Sources
[ https://www.vectra.ai/learning/ai-security Source: Vectra AI ]
[ https://fr.wikipedia.org/wiki/S%C3%BBret%C3%A9_des_intelligences_artificielles Source: Wikipedia ]
Contributeurs: Imane Meziani, wiki