L’intelligence artificielle et notre code moral

  • Intelligence artificielle restreinte : voiture autonome, SIRI…
  • Intelligence artificielle générale (IAG) : IA qui agit au moins aussi bien que l’homme dans toutes les activités humaines
  • Superintelligence : IA qui agit a un niveau superhumain dans toutes les activités humaines

Je me remémore souvent la première fois que j’ai visionné le film 2001 : L’odyssée de l’espace. Le film racontait l’histoire d’une mission spatiale. HAL, une intelligence artificielle, accompagnait les astronautes à bord d’un vaisseau spatial. HAL n’avait pas d’extension physique, c’était un ordinateur. Pourtant il était capable de contrôler énormément de choses.

Un jour, ses compagnons de route ont voulu mettre un terme à son activité, car HAL donnait des signes de rébellion face aux ordres. Néanmoins, HAL disposait d’un avantage sur les astronautes : il était plus intelligent. C’est donc HAL qui mit un terme à l’activité humaine dans le vaisseau. Il n’y avait là aucune forme de rancoeur particulière dans cet acte. Les intérêts des astronautes n’étaient simplement pas alignés avec les intérêts de la machine.

Arthur C. Clarke, l’auteur du roman 2001, L’odyssée de l’espace, est souvent considéré comme un visionnaire, et à juste titre. En effet, selon beaucoup de chercheurs, la création d’une intelligence comparable à HAL pourrait intervenir au XXIème siècle.

Mais qu’est-ce qu’impliquerait la création d’une Superintelligence ? De quelle manière pourrait-on créer une Superintelligence qui agisse en fonction de nos objectifs et valeurs ?

___

Vers une Superintelligence ?

L’avènement de cette Superintelligence est qualifiée de « singularité » par de nombreux scientifiques. « Singularité », parce qu’il est très difficile de prédire ce qui se passera une fois cette Superintelligence crée.

On nommera cette Superintelligence Robert (désolé Hal). Les capacités « cognitives » de Robert seraient tellement élevées, qu’elles pourraient faire passer n’importe quel humain pour une souris. Théoriquement, il pourrait scanner – et lire – l’intégralité de la bibliothèque d’Harvard en, disons, 2 minutes… De quoi rapidement atteindre un niveau d’intelligence super-humain.

« Nous ne scannons pas tous ces livres pour qu’ils soient lus par les humains. Nous les scannons pour qu’ils soient lus par une IA. » expliquait un ingénieur chez Google.

Le spectre de l’intelligence. Ici, l’idiot du village et Einstein disposent d’un niveau d’intelligence équivalent… Robert pourrait-être beaucoup plus avancé sur la flèche

L’hypothétique avènement de Robert est d’ailleurs qualifiée par de nombreux scientifiques de « singularité« . « Singularité », parce qu’il est très difficile de prédire ce qui se passera une fois Robert crée.

En fait, Robert pourrait agir sur son environnement grâce à des moyens non-conventionnels et ultra complexes.

Ses capacités seraient telles, qu’il pourrait se connecter à n’importe quel réseau internet, micro, caméra de la planète. Il serait capable d’enregistrer et de traiter cette quantité de données à une vitesse folle. Il surpasserait des génies comme Freud, Hemingway ou Von Neumann dans leurs domaines respectifs.

Robert comprendrait la nature humaine comme personne, et pourrait façonner nos comportements en créant à sa guise toute sorte de messages publicitaires capables d’altérer nos décisions. Ça n’est là qu’une éventualité parmi tant d’autres (que nous ne pourrions même pas anticiper).

 Proportion des chercheurs anticipants la création d’une IAG à une date X selon un niveau de confiance. L’émergence d’une Superintelligence est anticipée en moyenne 30 ans après celle d’une IAG. 

Face à ces incertitudes, il est impératif d’assigner à Robert un objectif aligné avec nos intérêts. Pour que Robert soit bienveillant, il devrait agir en fonction d’un code moral qu’il respectera dans toutes ses actions.  

Le choix de ce code moral est un énorme défi. Robert étant l’entité la plus intelligente sur Terre, il aurait, par conséquent, beaucoup de pouvoir. Si notre volonté n’est pas correctement transmise, les conséquences pourraient être… catastrophiques.

Imaginons qu’on assigne à Robert l’objectif suivant : « faire sourire les humains ». On pourrait obtenir des résultats déroutants. Robert pourrait comprendre que la manière la plus rapide d’accomplir cet objectif serait – après avoir pris le contrôle du monde – d’implanter des électrodes dans le visage du plus d’humains possible pour provoquer une contraction musculaire et ainsi obtenir des « sourires ».

Même si la situation est caricaturée, traduire parfaitement un code moral/objectif à une IA semble extrêmement complexe.

Selon le physicien Max Tegmark, pour que Robert soit une IA bienveillante, voici trois objectifs qu’il devrait remplir :

  1. Comprendre notre objectif – traduire un objectif à une intelligence non biologique est difficile et risqué.
Sophia semble avoir des difficultés à comprendre l’objectif donné par son créateur

2. Adopter notre objectif – Robert est superintelligent, et notre objectif peut lui paraître stupide. Aussi, il n’est pas évident qu’il l’adopte.

3. Conserver notre objectif – Si Robert devient plus intelligent au fil du temps, respectera t-il de notre objectif dans le futur ?

Comment faire en sorte qu’ils soient respectés ? C’est là que la que la technique de la VCE intervient.

La VCE

Le chercheur Eliezer Yudkowski a théorisé une méthode afin de créer un code moral optimal. Cette méthode, c’est la Volonté Cohérente Extrapolée (VCE). Yudkowski la définit ainsi :

« Notre VCE serait notre volonté si nous savions plus de choses, pensions plus rapidement, étions davantage les personnes qu’on aimerait être (…) c’est une volonté extrapolée comme nous voudrions qu’elle soit extrapolée, interprétée comme nous voudrions qu’elle soit interprétée. »

On part donc de l’hypothèse suivante : Robert à la capacité de rassembler un volume de données colossal sur le comportement général de l’homme. Grâce au traitement de ces informations, Robert va synthétiser nos volontés actuelles et passées. Il va, à partir de là, anticiper l’état du monde tel que nous le souhaiterions si nous avancions dans le temps. C’est comme s’il accélérait les mutations biologiques de nos cerveaux et qu’un code moral nouveau en émergeait.

Notre volonté va être extrapolée là où l’extrapolation converge plutôt que diverge. Autrement dit, un consensus doit être établi pour que Robert agisse en fonction d’une volonté. Il n’extrapolera pas la volonté d’un raciste. En effet, peu de monde serait d’accord avec la vision des choses d’un raciste. Robert extrapolera les volontés relativement partagées par tous.

Robert pourrait alors agir là où un grand consensus existe entre les humains, et extrapoler notre volonté en partant de cette base.

L’homme peut déjà s’accorder sur certains principes communs à l’ensemble de son espèce. L’astrophysicien Max Tegmark a par exemple distingué 3 principes partagés par l’homme :

  • L’utilitarisme : maximiser les expériences positives.
  • La diversité : il vaut mieux vivre différents types d’expériences que la répétition d’une unique expérience.
  • L’autonomie : les différentes sociétés doivent êtres libres de poursuivre leurs propres objectifs, sauf si ceux-ci vont à l’encontre d’une certaine valeur.

Nos valeurs actuelles sont-elles immorales ?

Les principes énoncés précédemment représentent déjà une base solide. En regardant de plus près l’histoire de notre système de valeurs, on peut penser que notre code moral actuel pourrait être hautement immoral.

Par exemple, il fut un temps au cours duquel le racisme n’était pas un délit, mais une norme. Pareillement, on pourrait anticiper le fait que nos valeurs actuelles soient immorales. Si c’est le cas, il serait extrêmement dangereux de confier à Robert un système de valeurs à respecter.

Pourquoi ?

« S’il nous fallait stipuler un code moral spécifique et inaltérable que l’IA devra respecter, nous serions enfermés dans nos convictions morales actuelles, avec leurs erreurs, et cela obèrerait tout espoir de progrès moral. » Nick Bostrom

« Si j’avais demandé aux gens ce qu’ils voulaient, ils m’auraient demandé des chevaux plus rapides. »  Henry Ford

Pour essayer de donner de la perspective, appuyons nous sur les anciennes société esclavagistes. Si à l’époque, nous avions confié un système de valeurs à Robert, il aurait pu intégrer des valeurs racistes à toutes ses actions.

Nos modes de pensée n’auraient pas évolué sur le plan du racisme, et nous serions encore des sociétés esclavagistes à l’heure actuelle.

L’idée derrière la VCE, c’est que Robert puisse extrapoler lui-même nos valeurs, car, étant superintelligent, il est une entité bien plus rationnelle que l’espèce humaine.

Désirs de premier et de second ordre

« Il est possible qu’il y ait des choses que nous n’aimerions pas vouloir si nous savions plus de choses et que nous pensions plus rapidement ». Eliezer Yudkowski

Reformulons la citation ci-dessus : avec la technique de la VCE, Robert pourrait en fait distinguer deux types de volonté.

Prenons l’exemple de Billy. Billy est un alcoolique. Billy réclame au serveur d’un bar un deuxième verre de whisky. Dans ce cas, c’est son désir de premier ordre.

Mais au plus profond de l’âme de Billy, réside en fait un désir de second ordre. C’est le souhait, justement, de ne pas avoir ce désir de premier ordre. En effet, Billy sait que l’alcool est en train de le détruire.

Nos désirs secondaires peuvent, comme le montre cet exemple, avoir plus d’importance que nos désirs primaires. Ils caractérisent la personne que l’on aimerait être, mais qu’on a du mal à devenir.

Je peux ici prendre un autre exemple.

Le jour où Robert Oppeinheimer assista à l’explosion de sa funeste bombe atomique, le célèbre physicien déclara « désormais je suis le Dieu de la mort, le destructeur des mondes ». Son collègue, Kenneth Bainbridge, répondu d’une manière cinglante : « désormais, nous sommes tous des fils de **** ».

N’est-ce pas là l’expression des désirs secondaires d’un individu dubitatif quant à son invention ? Après tout, Einstein avait lui-même avisé le président de l’époque en faveur du développement de la bombe – il l’a ensuite regretté. Le temps change les systèmes de valeur, change les modes de pensée. Et le temps semble riche en sagesse.

Grâce à la technique de la VCE, l’IA pourrait accélérer le temps, afin de trouver un système de valeurs adéquat à respecter.

Pourquoi le serait-il ? Pouvons nous esquisser un deuxième argument en faveur de la VCE ? Et bien, voyons si nous pouvons tenter d’extrapoler nous-mêmes la volonté de l’homme.

La volonté extrapolée de l’être humain

Je pense qu’en utilisant la technique de la VCE, un des objectifs premiers de Robert sera d’agir pour réduire la violence. Il existe, en effet, une tendance frappante à la régression de la violence dans le monde, qui laisse augurer un « consensus » sur ce sujet. Et Robert est un spécialiste du repérage de consensus. 

La réduction de la violence dans l’histoire

La proportion des crimes en tout genre a diminuée drastiquement au fil des siècles, pour atteindre son niveau le plus bas aujourd’hui. Même les récentes guerres mondiales sont proportionnellement beaucoup moins meurtrières que les guerres précédentes. Pour illustrer ce phénomène, on est passé de la torture médiévale en France, à la peine de mort par pendaison, à l’incarcération à perpétuité. 

Évolution du taux d’homicide pour 100 000 personnes (1300-2016)

                                                                                

Notre rapport aux animaux se transforme également, et c’est là un indicateur pertinent à suivre. Malgré la hausse continue de la consommation de viande pour nourrir de plus en plus d’hommes, les mouvements en faveur de la cause animale se multiplient. Tant pour des raisons d’empathie, que des raisons environnementales. Si ce phénomène reste encore assez restreint au monde occidental, il n’en est pas moins factuel. 

Pour ces quelques raisons (il y en a d’autres), Robert pourrait comprendre que la réduction de la souffrance est une réalité historique, et pourrait donc en extraire un code moral bien plus développé que le nôtre actuellement.

Cette idée peut-être contre-intuitive : en effet, notre perception du monde est grandement façonnée par les médias. Les médias n’arrivent à faire de l’audience que sur des sujets négatifs : reportages sur la famine, guerres civiles, attentats, etc… Pendant ce temps là, John, 45 ans, habitant du Texas, qui, comparé à ses ancêtres :

  • n’est plus raciste (moins, en tous cas)
  • a appris à écrire
  • dispose de 20 ans d’espérance de vie de plus que son aïeul

John ne fera jamais l’objet d’un reportage télé sur l’amélioration de son code moral par rapport à ses aïeux.

Le temps adoucit les moeurs

C’est un fait, l’information penche bien plus vers la guerre que la paix. Et pourtant, nous avons des raisons pour nous réjouir, car nous vivons de mieux en mieux :

Indicateur

Évolution des principaux indicateurs mondiaux

La technique de la VCE devient encore plus séduisante avec les données ci-dessus. Avec ces données, Robert pourrait diagnostiquer une croissance positive de nombreux indicateurs, comme le niveau d’éducation, de richesse, de démocratie…

Robert pourrait alors extrapoler notre volonté en s’appuyant sur cette tendance. Cette histoire de VCE pourrait donc révéler quelque chose de positif à propos de la nature humaine. Elle atteste du fait suivant : plus le temps passe, plus nous sommes civilisés.

Alors oui, l’homme menace aujourd’hui la planète dans son ensemble (ogives nucléaires ou réchauffement climatique pour ne citer que les deux), ce qui n’était pas le cas par le passé.

Cependant, on ne devrait pas être étonnés de ce fait. Notre patrimoine génétique est identique à celui des chimpanzés à plus de 96%. Les mutations d’un organe comme le cerveau sont extrêmement lentes dans le temps. Par conséquent, nous vivons encore avec un cerveau au fonctionnement principalement primitif, et en lui réside une quantité de biais astronomique.

Voici un indicateur aléatoire parmi tant d’autres: nous ne sommes toujours pas capables de vivre sans frontières. C’est finalement une caractéristique commune à beaucoup de primates, qui ont tendance à marquer leur territoire et à vivre séparés en clans. Cette situation est loin d’être idéale lorsque l’on dispose de la bombe atomique.

Les décisions humaines sont donc principalement guidées par des émotions primitives. La réflexion ne représente qu’une petite fraction de l’utilisation totale de nos cerveaux. D’où le risque encouru lorsqu’un personnage comme Donald Trump préside les États-Unis.

Qui sait ? Peut-être que nos avancées technologiques seront fatales à l’espèce humaine.

Ce que je veux retenir ici, c’est que la flèche du temps semble nous rendre plus altruistes. Nous sommes aujourd’hui plus civilisés, au sens large du terme, que par le passé – c’est un fait. La technique de la VCE pourrait dès lors être une piste à explorer afin de construire une IA bienveillante.

Leave A Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *