À la suite du scandale Maven, Sundar Pichai, CEO de Google, a publié les 7 principes de l’entreprise en matière d’intelligence artificielle.
GOOGLE AI – principes éthiques
Pour rappel, le programme Maven désigne un contrat qui avait été signé entre Google et le Pentagone. Dans le cadre de ce projet, les technologies d’intelligence artificielle de la firme de Mountain View devait aider l’armée américaine à améliorer la reconnaissance visuelle et la collecte d’informations de ses drones (des appareils non armés). La découverte de cet accord avait créé une levée de boucliers de la part des salariés, causant plus d’une douzaine de démissions. Une pétition signée par plus de 3 000 employés avait aussi été lancée écornant l’image de Google au passage. 90 universitaires avaient également rédigé une lettre demandant notamment à Google de rompre le contrat et de s’engager à ne pas développer de technologies militaires. Finalement, vendredi dernier, Diane Greene, à la tête de Google Cloud, a annoncé à ses équipes que le contrat qui court jusqu’en 2019 ne serait pas renouvelé.
Avec ce post énumérant les principes de Google en ce qui concerne l’intelligence artificielle, l’entreprise semble donc vouloir montrer patte blanche et prouver qu’elle ne prend pas ce sujet à la légère.
Des projets socialement bénéfiques, lutte contre les biais…
Le premier principe est que la technologie devra servir pour des projets « socialement bénéfiques ». « Lorsque nous examinerons les possibilités de développement et d’utilisation des technologies de l’IA, nous tiendrons compte d’un large éventail de facteurs sociaux et économiques, et nous poursuivrons lorsque nous estimerons que les avantages globaux probables dépassent largement les risques et les inconvénients prévisibles ». Il faudra aussi qu’elle ne crée ni ne renforce de biais.
Il faudra aussi que l’application concernée respecte les mesures de sécurité. « Dans les cas appropriés, nous testerons les technologies AI dans des environnements contraints et surveillerons leur fonctionnement après le déploiement ». Elle devra également être « responsable » envers la population. « Nos technologies d’IA feront l’objet d’une direction et d’un contrôle humains appropriés », explique Sundar Pichai. Les technologies IA devront respecter les mesures de protection de la vie privée avec notamment un recueil du consentement des personnes concernées.
Pour son avant-dernier principe, Google souhaite « maintenir des normes élevées d’excellence scientifique ». « Nous travaillerons avec un éventail de parties prenantes pour promouvoir un leadership réfléchi dans ce domaine, en nous appuyant sur des approches scientifiquement rigoureuses et multidisciplinaires ». Et enfin, Google devra s’assurer que les technologies mises en place ne peuvent pas être « détournées » et contrevenir aux principes énumérés plus haut. « De nombreuses technologies ont plusieurs usages. Nous allons travailler pour limiter les applications potentiellement nuisibles ou abusives ».
Même s’ils sont pavés de bonnes intentions, ces principes demeurent au final assez flous. D’ailleurs, dans le même post, Sundar Pichai explique bien que Google compte continuer à travailler avec le gouvernement et les militaires dans la cybersécurité, la formation, le recrutement, la recherche ou encore le sauvetage. Il précise, « nous voulons être clairs sur le fait que nous ne développons pas l’IA pour les armes ». Mais finalement, le programme Maven qui concernait des appareils non armés, ne respectait-il pas les principes énumérés ci-dessus ? Avec cette liste, Google ne semble finalement pas s’être fermé beaucoup de portes. Le montant de l’accord entre le Pentagone et Google pour le projet Maven s’élevait à 9 millions de dollars.
GOOGLE AI – principes éthiques