« Sûreté de l'intelligence artificielle » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
Ligne 14 : Ligne 14 :
''' AI security '''
''' AI security '''


<small>
==Sources==


[ https://www.vectra.ai/learning/ai-security  Source: Vectra AI ]
[ https://www.vectra.ai/learning/ai-security  Source: Vectra AI ]

Dernière version du 28 janvier 2024 à 12:57

Définition

Un domaine interdisciplinaire qui s'intéresse aux impacts à long terme de l'IA et à la façon dont elle pourrait évoluer soudainement vers une superintelligence qui pourrait être hostile aux humains.

Il a pour but d'empêcher les accidents, abus ou autres conséquences néfastes pouvant résulter des systèmes d'intelligence artificielle. Cela englobe notamment l'éthique des machines et l'alignement des intelligences artificielles (qui visent à rendre les systèmes d'IA moraux et bénéfiques), la conception de haute fiabilité et la surveillance des systèmes d'IA, mais aussi le développement de normes et de politiques favorisant la sécurité.

Français

sûreté de l'intelligence artificielle

sûreté de l'IA

Anglais

artificial intelligence security

AI security

Sources

[ https://www.vectra.ai/learning/ai-security Source: Vectra AI ]

[ https://fr.wikipedia.org/wiki/S%C3%BBret%C3%A9_des_intelligences_artificielles Source: Wikipedia ]

Contributeurs: Imane Meziani, wiki