Intelligence Artificielle et Ethique : une cohabitation complexe

Avec le développement des intelligences artificielles se posent de nombreuses questions sociétales avec notamment le besoin d’avoir une approche éthique pour mieux limiter les éventuelles dérives.

“Science sans conscience n’est que ruine de l’âme”, telle est la formule utilisée par Rabelais dans Pantagruel. S’il est un domaine auquel cette citation pourrait faire du sens, c’est bien à l’intelligence artificielle.

Dans la course effrénée de l’intelligence artificielle menée par les GAFAM, les BATX et autres NATU, aux algorithmes toujours plus puissants et performants, aux décisions toujours plus rapides rendues possibles par l’exploitation des données, le développement de la technologie dans ce domaine est devenu indispensable car porteur d’une innovation qui n’a pas de limites.

Des voitures autonomes à la reconnaissance faciale ou vocale, l’intelligence artificielle connaît une progression spectaculaire. La généralisation des algorithmes nourrit nos imaginaires, fascinés par la promesse d’un monde meilleur, où la puissance de calcul des ordinateurs pourrait éliminer bien des aléas de la vie quotidienne.

Pour autant les conséquences possibles (probables) des solutions proposées par les applications utilisant des IA nous amènent à nous questionner sur leurs véritables usages et impacts sur la société, d’où la nécessité de réguler l’utilisation de des technologies issues de l’IA.

A la lecture de différents rapports et/ou études sur le sujet depuis maintenant quelques temps, on remarque une réelle prise de conscience  quant à la nécessité de rapprocher la notion d’éthique à l’IA. Les tentatives pour apporter un éclaircissement sur les notions de biais et « d’exploitabilités » des algorithmes d’intelligence artificielle foisonnent avec d’ailleurs plus ou moins de pertinence. D’ailleurs la notion « d’explicabilité » n’est pas prévue par ce réseau de neurones dit artificiel ou profond qu’on appelle le Deep Learning.

C’est un fait que l’on ne peut contester. Le développement de l’IA suscite de l’intérêt, de l’enthousiasme mais aussi des inquiétudes légitimes alimentées par des approches issues de représentations relevant de scénarios de science-fiction.

Mais il ne faut pas non plus ignorer que le domaine applicatif de l’IA présente des risques qu’il faut prévenir. Il s’agit donc d’identifier ces risques potentiels, d’adopter des principes  débouchant sur des processus pour les maîtriser sur la durée afin de s’assurer que le développement de l’IA s’effectue réellement au service et non au détriment de l’homme

Jusqu’où peut-on laisser aux algorithmes et à ceux qui les développent le contrôle de nos comportements ? Comment protéger nos vies privées de l’appétit de machines alimentées par la collecte des données personnelles ? Comment se préparer aux bouleversements que l’intelligence artificielle va entraîner dans tous les secteurs professionnels ?

Les technologies arrivent désormais à un tel niveau de performance qu’elles vont être déployées dans le monde réel à une vitesse vertigineuse donc il devient de plus en plus important d’intégrer l’éthique dans tous les projets de recherche.

 

Éviter l’opacité des systèmes

Certains risques ont déjà été identifiés. Parmi eux, l’opacité des systèmes utilisés, et la difficulté à expliquer leur fonctionnement. Et comme la plupart des algorithmes actuels ne sont pas open source, nous sommes dans l’incapacité de connaître dans quelle mesure l’information reçue par une IA est suffisamment complète pour l’analyse qu’on lui demande et si toutes les variables possibles ont été prises en considération.

Nous sommes entrain de vivre une transition qui consiste à passer d’une informatique où les logiciels devaient suivre des règles écrites à des systèmes construits sur la base d’algorithmes que l’on entraîne à partir de données massives. Il devient extrêmement compliqué d’expliquer, de comprendre comment ces nouveaux systèmes sont à même de générer tel ou tel type de réponse. Cette situation est aujourd’hui un frein au développement des IA, notamment dans certains secteurs critiques, comme l’aéronautique.

Et même quand les systèmes d’intelligence artificielle prennent des décisions uniquement sur la base des données qui leur sont soumises, encore faut-il qu’ils n’aillent pas trop loin. Les déductions logiques de la machine peuvent échapper au raisonnement humain avec, à la clé, des décisions incomprises (Ce que Kate Crawford, chercheuse chez Microsoft Research, nomme la « black box »). D’où l’importance d’anticiper et d’être prêt à parer aux problèmes qui apparaîtront, car « un algorithme n’a ni sens commun, ni valeur morale. »

Toutes les IA développées en l’état actuel des connaissances relèvent de l’IA faible, c’est à dire …. Et c’est tant mieux. Au sein de la Chaire de Recherche Digital & Intelligence Artificielle de l’INSEEC, nous mettons au cœur de nos travaux de recherche le fait que l’intelligence artificielle n’existe pas pour remplacer l’humain mais pour compléter, assister, optimiser et étendre les capacités des Hommes, tout en ayant à l’esprit en permanence que tout système d’intelligence artificielle imaginé, créer et activé doit être le plus impartial possible.

Pour l’heure l’IA n’est pas impartial, au contraire. C’est le côté obscur de l’intelligence artificielle, celui qui nous renvoie un reflet parfois déplaisant de nous-même : les biais. Dans les données, ils peuvent fausser les résultats.

Bon nombre d’exemples récents ont montré le caractère discriminant des IA utilisés notamment dans le recrutement (Amazon), dans la reconnaissance faciale, et dans le domaine prédictif notamment au sein de la police américaine (récidive pour un individu). Cela nous amène naturellement à prendre en considération que le développement de l’intelligence artificielle doit se faire dans des environnements multidisciplinaires et avec une approche multiculturelle. Mais avec le temps, et les milliards de données qui seront collectées, les biais auront tendances à se réduire de façon significatives.

 

L’éthique et l’intelligence artificielle peuvent-elle cohabiter ?

La question telle que poser peut susciter des réponses avec des lectures multiples. Pourtant, s’il ne fait aucun doute, que l’éthique, qui s’invite dans le débat sur le développement de l’IA, est devenue une nécessité, la question initiale est de savoir comment s’y prendre et avec quel(s) allié(s) ?

Aujourd’hui, on peut distinguer trois approches bien différentes qui résument à elles seules les difficulté à se mettre d’accord sur les bases de principes éthiques dans l’IA. Très schématiquement, on peut distinguer :

  • les Etats-Unis qui considèrent la données comme un élément commercial
  • la Chine qui considère la donnée comme un élément du pouvoir afin de définir les « bons citoyens »
  • l’Europe dans laquelle, avec le RGPD qui essaie de protéger la donnée.

 

On l’aura compris, la compétition mondiale se passe sur d’autres continents qu’en Europe. Pour exister, l’Europe fixe sa priorité sur la définition de process éthiques qui visent à protéger la data, et donc la vie personnelle.

Finalement, si on a un regard positif sur le sujet, les Européens sont très sensibles sur les dangers d’une dérive toujours possible si on ne prend par garde à ériger des règles.

Mais attention tout de même. Antoine Petit, Directeur du CNRS lors de la présentation du rapport Villani à l’occasion de la conférence AI For Humanity en Mars 2018 où était présenté le rapport Villani, nous alertait sur une direction à éviter : « Ne pas devenir les spécialistes de l’éthique tandis que les Chinois et les Américains deviennent des spécialistes du business. »

Quoiqu’il en soit, l’éthique et l’intelligence artificielle ne s’opposent pas du tout. Simplement en fonction des valeurs, l’éthique et la morale peuvent évoluer d’un pays à l’autre. D’ailleurs, le RGPD européen envoie un signe important en ce sens obligeant les GAFAM et autres intervenants à se conforter aux règles édicter, au moins pour l’Europe.

Dans quelque temps, on pourra avoir un regard critique sur cette direction prise par l’Europe et de connaître la réelle influence du RGPD quant aux usages.

 

Alors l’éthique peut-elle être une opportunité pour développer la compétitivité de nos organisations ?

Voilà une question qui peut susciter bien des réactions et représente un enjeu majeur, pour ne pas dire primordial, pour les années qui viennent.

Tout le monde est convaincu que disposer de règles éthiques est indispensable. Pour autant, c’est intéressant de constater que quand bien même les limites de l’éthique seraient élargies, cela ne résoudrait pas nécessairement tout.

S’’il est un aspect qui peut sembler être un élément essentiel sur le sujet, c’est le comportement des consommateurs qui sont en aucun doute, le talon d’Achille de l’intelligence artificielle de demain. En s’appuyant sur l’éthique le consommateur possède une arme redoutable entre ses mains. On peut imaginer que ces derniers exigeront, à un moment donné, de se voir proposer des produits et services avec un label éthique qui respectera leur vie privée et leurs données. Peut-être même qu’ils seront disposés à payer un peu plus cher pour que leurs données ne soit plus utilisées que pour une amélioration des services et pas à des fins commerciales.

L’Europe  et la France, ont donc une carte concurrentielle à jouer en prenant cette posture éthique, de services tout aussi efficaces et respectueux. Mais ne perdons pas de temps car le monde change, s’adapte. s’organise à l’image de la Déclaration de Montréal pour un développement responsable de l’IA » présentée en Décembre 2018, initiée par l’université de Montréal.  Ce document pose dix grands principes éthiques : respect de l’autonomie des utilisateurs, protection de l’intimité et de la vie privée, prudence dans le développement de nouveaux outils, responsabilité laissée aux humains dans la prise de décision, etc. Maintenant reste à savoir si cette charte sera appliquée de façon homogène par tous les développeurs en IA sur la planète…

L’éthique oui, mais pas n’importe comment et surtout ne nous trompons pas de combat. Ne tombons pas dans des phénomènes de modes qui consisteraient à associer systématiquement IA et Ethique tout en connaissant pertinemment les limites du discours.

Encourager la mise en place d’une intelligence artificielle éthique devient donc un véritable enjeu technologique, économique, social et sociétal.

 

Pascal Montagnon
Directeur de la Chaire de Recherche
Digital innovation et Intelligence artificielle
INSEEC U.

Un commentaire sur “Intelligence Artificielle et Ethique : une cohabitation complexe

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *