Pourquoi l’éthique est conceptuellement insuffisante à l’IA ?

Pourquoi l’éthique est conceptuellement insuffisante à l’IA ?

Pourquoi l’éthique est conceptuellement insuffisante à l’IA ? 1440 550 Membre de GDA

« Sommes-nous voués à n’être que des débuts de vérité ? »

Bien éloigné il faut l’avouer de l’intelligence artificielle, le lumineux René Char exprimait ici l’inquiétude séculaire pour l’Homme de ne pas être à la hauteur de sa condition. Le poète aura cependant été contemporain des progrès informatiques, donnant la possibilité de traiter un nombre croissant de données afin d’accéder à des réalités autrefois occultes à celui même qui croyait savoir. De là à imaginer que l’IA égalerait – puis remplacerait – l’homme, il n’y a qu’un pas que d’aucuns se sont empressés de franchir.

Une telle idée se heurte bien entendu à d’imposantes barrières : incapable de conscience par limitation technique, il est impossible de programmer une morale indépendante et artificielle à une machine, étant le propre de l’espèce humaine. Le schéma de développement retenu est donc celui de la complémentarité entre l’homme et la machine, nécessitant alors de contrôler sa moralité afin d’éviter l’injustice. Prothèse qui met en cause notre singularité humaniste, l’IA fait donc l’objet de nombreuses réflexions autour de son éthique, prisme s’il en est de l’appréhension qui l’entoure. Dans une recherche collective de vérité qui ne déplairait à St-Thomas d’Aquin, les chartes et initiatives se multiplient. Et là est bien la chance qui nous est finalement donnée : l’IA aide à amener un questionnement profond autour de nos valeurs.

Cette nécessité de « garder la main » se conceptualise dans les notions de morale et d’éthique. Dominante dans un premier temps, la morale permit la naissance des notion-cadres de bonnes mœurs ou de pater familias, issues à l’origine de la religion et du rapport au sacré. Accompagnant le mouvement d’individualisation de la société, ce concept s’est cependant fourvoyé à la fin du XXème/XXIème siècle en éthique – et c’est bien là que le bât blesse. Car si la morale vise à distinguer universellement le bien du mal, l’éthique est un ensemble de règles issues d’une réflexion qui vise à définir le bien-agir, tout en ouvrant la voie à une morale individuelle. Certes, l’éthique est aujourd’hui indispensable à la régulation de l’IA et de ses algorithmes, en ce qu’elle prescrit un comportement jugé bénéfique pour la collectivité et l’individu. Mais d’un point de vue purement conceptuel, philosophique, et compte tenu des évolutions récentes en ces matières, elle ne s’aurait totalement s’arroger ce monopole sous peine d’être insuffisante. Encore faut-il qu’elle soit accompagnée d’une morale un tant soit peu universelle afin de ne pas manquer ses objectifs ; s’inspirer de l’expérience protéiforme de chacun a en effet ses limites pour définir collectivement de ce qui est ou non éthique.

Qu’entendons-nous exactement par éthique ? Pour quelles raisons peut-elle apparaître insuffisante eu égard des besoins actuels d’une IA vertueuse ? Pourquoi la morale serait elle-aussi indispensable à la réalisation d’un tel objectif ? Voguer sur l’écume des jours bienheureux de l’intelligence artificielle nécessite une interrogation qui ne saurait être irrésolue, au risque d’une lame de fond aux conséquences insuffisamment soupesées.

L’éthique, boîte noire philosophique

Les notions de morale et d’éthique, sans être même appliquées à l’IA, sont et ont été l’objet de questionnements philosophiques quant à leurs contours. Aristote, Kant et Ricoeur se sont tour-à-tour épanchés sur le sujet, sans jamais tomber entièrement d’accord. Et l’époque moderne a laissé apparaître une certaine vision de l’éthique, qui n’est entièrement satisfaisante vis-à-vis du sujet nous concernant.

A) Le dévoiement conceptuel

Aux origines de l’éthique, il y a la morale. Celle-ci fut historiquement d’origine religieuse, car révélée par un dieu dictant le bon comportement à suivre – c’est par ailleurs la thèse qu’a cherché à réfuter Durkheim. D’un point de vue philosophique maintenant, la conception kantienne est fondamentale : il distingue l’impératif hypothétique, qui ne peut fonder une action morale car motivée par le désir et la peur, et l’impératif catégorique qui se détache de ces raisons et permet donc une action qui est bonne en elle-même. Ce raisonnement le mène à imaginer le principe d’universalisation, qui consiste à ériger son comportement en maxime générale et universelle pour vérifier sa moralité. La vertu de la philosophie kantienne est d’avoir réussi à recentrer la morale sur l’homme et sa découverte intérieure, et non plus sur Dieu. Ce détachement, par ailleurs, n’est pas un problème pour lui, puisque les hommes vont par l’universalisation tous faire la même chose.

« Traite l’humanité en toi-même et dans les autres toujours comme une fin, jamais comme un moyen. » – Kant

Replacée dans un contexte d’individualisation et de nucléarisation de la société, la morale kantienne admet cependant des failles difficiles à combler. L’universalisation des différentes acceptions de ce qui est le bien ou le mal est en effet bien compliqué ; par exemple, le spectre d’un Big Brother apparaît infiniment plus amoral en France qu’en Chine. Même à l’échelle nationale, il est tout autant compliqué de tomber d’accord sur certains sujets, comme la patrimonialité des datas. En réponse à ce caractère excessivement rigoriste, Ricoeur proposa un modèle alternatif inspiré d’Aristote et de Kant : l’éthique devient la visée d’une vie accomplie, quand la morale est l’articulation de cette visée dans des normes ; mais il distingua surtout éthique antérieure et postérieure.

Cette dernière est aujourd’hui la seule forme d’éthique que l’on retient, à savoir une éthique appliquée, dans l’action. On tire alors les applications concrètes de principes définis à l’avance, par la discussion (nous y reviendrons), et c’est un tel schéma qui fonda les comités d’éthique, à commencer par le CCNE (Comité Consultatif National d’Ethique). Et c’est ainsi que l’éthique devint prépondérante à notre époque, accompagnant naturellement un changement sociétal qui s’était entretemps opéré avec l’affaissement des sources traditionnelles de socialisation – comme la religion. Quel est donc le problème avec une telle forme d’éthique, a fortiori avec l’IA ?

B) L’éthique artificielle, pourquoi elle ?

Lorsque le sujet artificiel émergea, des voix se firent vite entendre contre cette technologie et ses dérives. Face à cette nécessité de régulation, les acteurs concernés – tant citoyens qu’entreprises – se sont précipités sur la première notion qui se proposait, l’éthique, sans s’interroger sur ses causes profondes. Et nous voilà arrivés à un point où une charte éthique suffit à rassurer les citoyens sur leur vie privée, sur le traitement vertueux de leurs données. Rien qu’en surface, ce cheminement montre très vite ses limites : l’éthique se confond par des prescriptions vagues, non coercitives, se contentant parfois même d’uniquement respecter la loi. Sans compter les cas où ce ne sont que de belles paroles dénuées in fine d’effets.

Un tel dévoiement de l’éthique s’apparente au sens de la morale kantienne à l’idée de mal radical – ou la tentation de transformer le devoir en mobile de satisfaction. Satisfaites, les entreprises de simplement respecter une charte éthique alors qu’elle devrait être l’ossature de leur activité ; satisfaits, les citoyens de voir s’épanouir ces exercices de communication. Tout n’est bien évidemment pas à jeter, mais l’on ne peut s’empêcher de ressentir une certaine curiosité non-dénuée de malaise à la vue de ces chartes. Elles ont cependant eu le grand mérite de mettre en exergue une problématique qui n’était pas simple en apparence. La société civile s’est emparée du problème, à l’image de ce qu’on a vu avec les derniers états généraux.

« Les emmerdes, ça vole toujours en escadrille » selon le bon mot de l’ancien Président J. Chirac. Et si ces consultations marquent le point d’orgue d’un moment démocratique, d’une volonté d’auto-détermination pour enfin être libre de la définition de ses propres valeurs, elles posent problème. Habermas a défini le principe d’éthique de la discussion, qui est une entreprise de justification. On ne va pas ainsi fixer le critère de validité de la norme, mais uniquement vérifier si la norme est valide selon le bien ou le mal. Contrairement à Kant, ce procédé est donc collectif ; mais nous n’avons aujourd’hui retenu que la discussion, en oubliant l’entreprise d’universalisation propre à sa bonne application.

« La morale s’est transformée en éthique, elle ne commande plus par maxime, elle propose des arguments pour et contre, elle engage une discussion avec le risque de ne jamais pouvoir la clore. » Carbonnier

La morale s’est affaissée, et le monde continue certes de tourner. Là où se tenaient des valeurs, se trouve maintenant la discussion pour le meilleur ou pour le pire de l’IA. Pourtant, en faire antinomie serait erreur tant les concepts sont historiquement et conceptuellement liés. La morale est en effet nécessaire à l’éthique dans son principe, et l’éthique est nécessaire à la morale dans son application.

Un moral-Learning indispensable

Trop d’éthique risque de tuer l’IA et ses opportunités, comme le rappelle Olivia Vigouroux : « Il faudrait faire attention à ce que la France ne devienne pas une spécialiste de l’éthique en intelligence artificielle quand les Etats- Unis et la Chine font du business ». D’un autre côté, elle constitue aussi une source de croissance car elle formule une attente de la société en la rassurant, celle de garder la main sur cette technologie. Et si la morale constituait ici la solution ? Un entre-deux vertueux, capable d’allier le meilleur des deux mondes ? Une telle morale peut-elle exister, ou existerait-elle déjà ?

A) L’enfer, c’est les autres

Une ligne éthique énoncée par le CCNE est bien pratique du point de vue intellectuel, puisqu’il permet de renoncer à la réflexion et de dédouaner le législateur de ses obligations en se reposant sur les avis de l’institution. En opposition, on pense alors à l’expression de Sartre, invitation existentialiste si elle en est à l’autodétermination de ses propres valeurs. Mais c’est sans compter sur les développements précédents : l’idéal serait d’avoir un cadre moral infranchissable, dans lequel l’éthique s’épanouirait individuellement, mais aussi et surtout collectivement pour répondre aux défis artificiels actuels.

Une telle définition fut déjà tentée par le passé, et non des moindres : les trois lois de la robotique d’Isaac Asimov ouvrirent la voie à une machine imaginée éthique. Bien que l’auteur ait passé le reste de sa vie à expliquer pourquoi ces lois sont insuffisantes à la réalisation d’un tel objectif, elles marquent une bien curieuse étape dans ce processus.

Curieuse par leur forme bien sûr, mais aussi par leur contenu tout biblique. La Première Loi rappelle ainsi le sixième commandement1. Par ailleurs, la société attend des individus qu’ils obéissent aux instructions des autorités reconnues – docteurs, enseignants, et ainsi de suite, ce qui est équivalent à la Seconde Loi de la robotique. Enfin, les hommes sont en général enclins à éviter de se voir blessés eux-mêmes, ce qui est la Troisième Loi pour un robot. Entre religion et calque sur la morale humaine, Asimov préfigurait une certaine idée de la morale de l’IA – et non de l’éthique. Car ce qui le distingue du mouvement actuel, c’est le caractère universel et donc acquis de ses lois, promouvant en premier lieu une humanité héritée du Siècle des Lumières.

« La valeur morale ne peut pas être remplacée par la valeur intelligence et j’ajouterai : Dieu merci ! » Albert Einstein

Et si finalement était là une réponse toute trouvée ? Face au dévoiement individualiste de l’éthique, il reste tout de même des constantes dans lesdits travaux de recherche et de réflexion : que l’humain reste au centre du jeu artificiel, qu’il garde la main sur la machine ou l’algorithme. Cette idée que l’Homme par sa perfectibilité – thème développé en premier par Rousseau2, à l’époque des Lumières précisément – est différent des autres espèces ou entités, et qu’il se doit donc de se préserver vis-à-vis d’elles. Le problème étant par exemple que « le robot, rééditable indéfiniment à l’usine, ne mourra jamais. Ces relations artificielles permettraient ainsi de créer un attachement sans risque, nous éloignant de ce qui caractérise les relations humaines : le manque, la séparation et la mort »3. Nous voilà donc avec la morale humaniste comme parangon de réflexion et préférable à une multitude d’éthiques, car ouvrant la voie à une autodétermination et nucléarisation des valeurs dangereuses au sens de la morale kantienne.

B) Une vision non-binaire

La morale humaniste restera-t-elle lettre morte ? Il faut ici compter sur la peur de l’humain lui-même de perdre le contrôle, à la manière romancée de Frankenstein. L’objectif implicite est celui d’éviter la réification, qu’Honneth définit comme « un comportement humain qui viole des principes moraux ou éthiques, dans la mesure où il traite les autres sujets non pas conformément à leurs qualités d’êtres humains, mais comme des objets dépourvus de sensibilité »4. Il est ici aisé de voir avec quelle facilité ceux-ci peuvent être réduits à une donnée, un chiffre, une succession binaire de un et de zéro.

Selon la définition classique des deux notions, l’éthique est donc indispensable en tant qu’elle est le bras armé de la morale. Et plus encore, ces deux notions sont primordiales car elles constituent souvent le premier pas vers un effort de législation : pour Ripert, la mission du législateur est en effet de traduire la règle morale en règle juridique5– en l’espèce, la mise en application du RGPD constitue un bon exemple de régulation d’un « far-west » amoral des données. Quelles solutions de ce fait face au problème d’articulation des concepts ? Selon les mots d’un des fondateurs de l’IA John McCarthy, il ne faut pas uniquement mettre en exergue la morale et sa sanction– car « quand la moralisation est à la fois véhémente et vague, elle invite à l’abus autoritaire ». Comme on ne saurait l’accuser d’un quelconque maccarthysme moral, ne reste plus qu’à trouver un entredeux salvateur.

S’assurer que l’éthique soit paradoxalement morale serait le point de départ ; mais comme dit précédemment, la peur humaine a elle-même fait son chemin à la profonde base de nombreuses chartes éthiques sur le sujet. On privilégiera donc ici une triple réduction, centralisation et universalisation des chartes éthiques : il faut certes que chacune s’adapte au domaine dans laquelle elle doit s’appliquer, mais à elles de faire l’effort originel de généralisation. La loi et le droit sont passés – et passent encore – par cet écueil, qui nuit à leur efficacité. Sans formation individuelle cependant, une éthique ainsi générale et généralisée ne sera que comprise que par le prisme des sensibilités particulières.

Ce mouvement devrait donc naturellement s’accompagner d’une éducation morale des data-scientistes, codeurs et juristes entre autres. Cette expression peut faire peur, en raison de ses renvois à des épisodes particuliers de l’histoire, mais est aujourd’hui nécessaire dans la recherche d’une élaboration vertueuse de l’IA. Une conception artificielle humaniste et humanisée, telle est la morale que l’on devrait se fixer.

Reste à tenter de fixer la mise en place de cette morale et ses moyens de diffusion. Il n’y a ici aucun absolu, tant il serait dangereux de s’aventurer sur ce terrain-là. Tout au plus peut-on indiquer un commencement de piste : la réhabilitation des sources traditionnelles de socialisation comme la religion permettrait de résoudre le double problème de distinction et d’adaptation à chaque société. Un tel modèle est en effet assez personnel pour être perçu comme un choix, et suffisamment ouvert pour être collectivement partagé. Suivez la morale et elle vous fuira, fuyez- la et elle vous suivra.

« La fin justifie les moyens, mais qu’est ce qui justifie la fin ? » Camus

Un peu moins d’éthique, un peu plus de moral, la recette de la vertu est un équilibre délicat à ménager. Plaider en ce sens peut paraître inepte, tant les termes sont confondus ; mais se poser la question des origines philosophiques et sociologiques des deux notions est salvateur à l’heure où elles reviennent sur le devant de la scène, artificielle cette fois-ci. L’éthique de l’IA, traduction concrète de l’inquiétude de l’Homme quant à la préservation de sa condition et des valeurs sociales qui l’ont formé, a bifurqué vers un parangon individualiste inefficace en certains lieux. L’idéal serait bien sûr la formation de « bonnes-mœurs » morales de la technologie artificielle, possédant une puissance coercitive qu’elle ne connaît pour l’instant pas. S’appuyer sur les acteurs spécialisés du domaine et leur éthique ne suffit en effet pas, tant le processus de création est opaque et les valeurs diffuses. Si les borgnes sont rois au pays des aveugles, il s’agirait maintenant d’ouvrir les yeux : l’avenir n’en paraîtra que plus radieux.

Lucas Gourlet, étudiant à l’Université de Montréal