Le 14 octobre 2021
L’intelligence artificielle s’invite de plus en plus dans notre quotidien, aussi bien dans notre sphère privée que professionnelle. Il apparait nécessaire d’encadrer cette avancée technologique tant pour ses usages que pour son utilité. C’est pourquoi Sage s’associe avec Numeum (issu de la fusion de Syntec Numérique & TECH IN France), autour de l’initiative « Ethical AI » pour opérationnaliser les principes éthiques de l’intelligence artificielle et promouvoir des solutions dignes de confiance.
« L’intelligence artificielle, n’est plus un simple concept futuriste, c’est aujourd’hui une réalité porteuse d’un grand nombre de promesses. Cette technologie, que l’on retrouve aujourd’hui beaucoup dans nos solutions de gestion, présente des bénéfices considérables qui vont au-delà de la simplification et de l’automatisation des tâches. Elle devient un véritable levier pour aider l’entreprise à relever les grands défis sociétaux et environnementaux. Nous sommes fiers de faire partie des premiers acteurs à s’engager autour de cette charte. » commente Pacôme Lesage, Président Sage Europe du Sud.
Une charte dont la définition repose sur 6 grands piliers :
- Respectueuse des données personnelles
En se nourrissant de quantités gigantesques de données, les systèmes d’IA qui fonctionnent par apprentissage automatique exacerbent les risques d’abus concernant les données personnelles. Ils défient les principes mêmes sur lesquels reposent les règlementations existantes de protection des données personnelles telles que le RGPD. Pour le concepteur d’IA, le respect de ces principes soulève dès lors de multiples questions : quel équilibre entre données strictement nécessaires et performance ? Que signifie finalité dans une démarche d’expérimentation ? Quelle voie entre conserver les données pour les tracer et les supprimer ? Etc. Il faut donc inciter les acteurs du projet à minimiser l’emploi de données à caractère personnel et, idéalement, à s’en passer. Si toutefois des données à caractère personnel sont nécessaires à quelque moment que ce soit du cycle de vie de la solution il est important de définir la base légale sur laquelle va se fonder la collecte et le traitement de ces données à caractère personnel (contrainte règlementaire du RGPD).
- Équitable : elle s’attache à ne pas créer ou reproduire de la discrimination et elle favorise l’inclusion
L’industrie et les communautés doivent mettre au point des mécanismes permettant de filtrer efficacement les préjugés et les sentiments négatifs au sein des données utilisées pour l’apprentissage de l’IA. Aussi, Le système doit fonctionner de manière impartiale. Il doit, en particulier, viser à ne pas renforcer ou créer de la discrimination du fait de biais introduits lors de l’entraînement ou dans l’algorithme. Il doit refléter la diversité de la population utilisatrice ou concernée et se conformer aux normes d’accessibilité les plus courantes et ainsi favoriser la diversité et l’inclusion.
- Transparente dans son fonctionnement : ses conclusions peuvent s’expliquer et elle est « auditable »
Les causes et critères qui conduisent aux conclusions de l’IA doivent pouvoir être portés à la connaissance des utilisateurs et/ou des personnes affectés ou concernés par la conclusion ; ces explications doivent donc être intelligibles afin d’éclairer la décision finale ou de permettre d’agir sur les données d’entrée. Ainsi, le processus de conception et de déploiement du système doit être documentés (description de la collecte et de l’étiquetage des données, de l’algorithme utilisé, du modèle économique, etc.) à des fins de vérification (audit) et d’amélioration et de correction de l’outil. La collecte, la conservation et l’usage des données doivent être documentés (conformément au RGPD). Les différents arbitrages qui ont une incidence sur les exigences éthiques doivent également être justifiés.
- Loyale dans sa relation avec les êtres humains : elle ne fait que ce qu’on attend d’elle et elle se révèle à l’utilisateur
L’utilisateur se doit de comprendre sans ambiguïté qu’il interagit avec une machine. Le champ d’intervention, de même que les limites et les capacités du système, doivent être portés à la connaissance de celui qui va le mettre en œuvre. L’utilisateur est en droit de savoir si une IA est impliquée dans le résultat d’un calcul qui de surcroît, s’avère décisif pour lui, pourrait orienter une décision qui le concerne ou qu’il doive prendre. Le système doit effectuer ce qu’on attend de lui, ni plus ni moins.
- Maîtrisée : elle reste sous le contrôle de l’humain
L’utilisateur d’un système d’IA prend connaissance des recommandations émises mais doit pouvoir rester décisionnaire et autonome dans ses choix individuels. Si la conclusion de l’IA recommande une décision qui affecte une ou des personnes, alors la décision finale doit revenir à une personne. L’humain doit pouvoir prendre la décision de ne pas faire appel au système d’IA s’il juge que les conditions éthiques ou de sûreté ne sont pas remplies. Le système permet à une personne d’émettre un recours ou de signaler une anomalie.
- Sûre : elle est sécurisée et robuste face aux cyberattaques
Le système doit comporter les mécanismes lui permettant :
- De se prémunir contre les risques de malfaisance recensés lors de l’étude de risques et d’impact.
- De se protéger contre les cyberattaques (détournement de finalité, vol de données, etc.).
- De bloquer et corriger les effets des éventuelles attaques et actions malfaisantes.
Par tous ces atouts, l’IA se révèle donc être un formidable accélérateur d’activité, et représente un très bon complément de l’être humain. Son évolution extrêmement rapide en fait une force à prendre en compte et à apprivoiser dès maintenant pour construire un monde où son usage quotidien est normalisé.
Plus sur Sage : www.sage.com