EDITO

l’éthique,
un enjeu clé pour l’intelligence artificielle

Le développement des intelligences artificielles soulève bien des questions éthiques. Quel degré d’autonomie ces technologies laisseront-elle à l’homme ? A quelles fins nos données personnelles prises en compte dans l’exploitation d’algorithmes puissants seront-elles utilisées ? Comment s’assurer que les décisions prises par une intelligence artificielles ne seront pas discriminantes ?

Présente partout désormais dans nos vies, professionnelles comme personnelles, l’intelligence artificielle prend une place de plus en plus importante dans notre quotidien. C’est pourquoi il convient de définir et d’anticiper les risques pour s’en prémunir.

Dans son étude « Visions Technologiques 2018 », le cabinet Accenture met en avant les cinq tendances majeures en termes d’intelligence artificielle qui vont structurer les organisations dans les trois ans à venir à savoir :

  • L’IA citoyenne avec notamment l’éducation autour de l’IA, au service des entreprises et de la société
  • La data infaillible en insistant sur l’importance de la confiance dans les données
  • La réalité amplifiée avec la notion d’’expérience sans la distance
  • L’IT antichoc avec une architecture prête pour un écosystème à grande échelle
  • L’internet de la pensée. Rendre intelligentes les architectures distribuées impliquant un nouvel équilibre entre le cloud et l’«edge computing», et une revue du hardware.

En regardant de plus près, L’IA représente est bien plus qu’un programme. Elle devient un membre de la société qui doit être éduqué de façon responsable. Car si la technologie est neutre, ce sont bien les Hommes qui en définissent les usages. L’IA n’a par nature pas de conscience, ni de morale : ce sont les Hommes qui en élaborent les principes et ses frontières.

Bien sûr, il appartiendra à ces Hommes de faire en sorte que dans la conception même des technologies utilisant une intelligence artificielle, d’intégrer en amont des valeurs comme la transparence, l’honnêteté…  avec en point de mire une vision humanisée et un usage responsable de l’IA, qui vise à amplifier les capacités et l’ingéniosités humaine.

Dans son livre blanc publié en 2018 intitulé « Intelligence artificielle : guide de survie. Comprendre, raisonner et interagir autrement avec l’IA », la filiale française de Microsoft détaille ses principes pour une complémentarité homme-robot réussie :

  •  placer l’humain au cœur de la machine
  • démocratiser l’IA en la rendant accessible à tous
  • et enfin contrôler l’IA, en garantissant la véracité, sécurité et confidentialité des données et en régulant les algorithmes pour s’assurer qu’elles intègrent la diversité et dépassent ses biais initiaux.

Une IA façonnée par toutes et tous

S’il est peu probable, du moins dans un futur proche, que la machine se substitue à l’Homme, questionner la sécurité de l’IA et faire l’audit des algorithmes reste nécessaire pour se prémunir des discriminations que la nouvelle économie du profilage individuel ou collectif peut mettre en place.

Si certaines initiatives fournissent, de façon proactive, aux minorités les armes nécessaires, au travers de l’apprentissage de la programmation, pour se rendre acteurs du changement, d’autres ambitionnent de diversifier les sources d’apprentissage de l’IA pour la rendre plus inclusive.

Un des enjeux repose sur le fait que ces technologies deviennent efficace pour tout le monde, sans exclure personne. Autrement dit, que les développeurs et chercheurs en intelligence artificielle ne travaillent pas uniquement eu égard à leur propre profil, mais en incluant systématiquement toute la diversité humaine dans leurs algorithmes. Cela implique une connaissance de l’autre, une reconnaissance des différences physiques et culturelles. Mais surtout une inclusion de toutes ces données dans les logiciels, de façon parfaitement égalitaire.

Pour atteindre au mieux cet objectif, pourquoi ne pas diversifier les équipes ? Afin que les algorithmes et les solutions intelligentes qui sont développées ne soient pas biaisés et ne favorisent pas des discriminations, la pluralité des équipes de conception est un principe clé à garder à l’esprit.

La diversité humaine existe, elle est une richesse. Il ne reste plus qu’à la maintenir à tous les niveaux, du consommateur au développeur.

De fait, les enjeux éthiques de l’IA interrogent ses usages : à quelle fin l’IA est et doit-elle être utilisée ? Comment faire en sorte que ces technologies ne soient pas manipulées à des buts contraires aux valeurs qu’elles défendent ?

Pour approfondir la réflexion autour des enjeux éthiques que soulève la montée en puissance de l’intelligence artificielle, rendez-vous le 11 juin 2019 dans les locaux de l’INSSEC à Lyon ou un plateau prestigieux de speakers (français et internationaux) viendront débattre sur le thème Ethique et Intelligence artificielle.

Pascal Montagnon
Directeur de la Chaire de recherche innovation digitale et intelligence artificielle - INSEEC U