Des machines intelligentes ?




En 1950, Alan Turing proposa un test d’intelligence pour les machines. Il pensait que les progrès de l’informatique permettraient de le satisfaire en cinquante ans. Même si les avancées de l’intelligence artificielle ont été remarquables, aujourd’hui, aucune machine n’a encore réussi le test.

Définir l’intelligence est difficile et il n’est pas certain qu’on puisse y arriver un jour d’une façon satisfaisante. C’est cette remarque qui poussa le mathématicien britannique Alan Turing, il y a soixante ans, à proposer le « jeu de l’imitation » qui fixait un objectif précis à la science naissante des ordinateurs qu’on n’appelait pas encore « informatique ». Le jeu de l’imitation consiste à mettre au point une machine impossible à distinguer d’un être humain. Précisément, Alan Turing suggérait qu’un « juge » échange des messages dactylographiés avec, d’une part, un être humain, et d’autre part, une machine, ces messages pouvant porter sur toutes sortes de sujets. Le juge ne sait pas lequel de ses deux interlocuteurs, qu’il connaît sous les noms « A » et « B », est la machine et lequel est l’humain. Après une série d’échanges, le juge doit deviner qui est la machine et qui est l’être humain.

Le test de Turing

Alan Turing pensait que si un jour nous réussissions à mettre au point des machines rendant impossible l’identification correcte (c’est-à-dire conduisant le juge à un taux de mauvaise identification de 50 %, identique à ce que donnerait une réponse au hasard), alors nous pourrions affirmer avoir conçu une « machine intelligente » ou – ce que nous considérerons comme équivalent – « une machine qui pense ». Sa procédure, aujourd’hui appelée « test de Turing », a donné lieu à de nombreuses discussions souvent intéressantes et est à l’origine d’une série de réalisations informatiques concrètes mises en compétition annuellement lors du prix Loebner. Les résultats des logiciels participant au jeu de l’imitation progressent chaque année... mais plutôt lentement.

Intelligence ou imitation ?

Il faut mesurer à quel point réaliser un programme qui passe le test de Turing est difficile. Mettons-nous dans la peau du juge dialoguant par le biais d’un terminal d’ordinateur avec les deux interlocuteurs A et B. Une première idée pour reconnaître la machine consiste à poser une question du type : « Quelle est la valeur de 429 à la puissance 3 ? ». Si A répond 78 953 589 au bout d’une seconde et que B refuse de répondre ou attend trois minutes pour proposer un résultat, il ne fera pas de doute que A est la machine et B l’humain. Cependant, les spécialistes qui conçoivent les programmes pour passer le test de Turing ne sont pas idiots et ils prévoient cette ruse grossière. Leur programme, bien que capable sans mal de mener le calcul de 4293 en une fraction de seconde, refusera de répondre ou demandera dix minutes avant de fournir un résultat, ou même proposera une réponse erronée. Tout ce qu’un humain ne sait pas très bien faire et qu’un ordinateur réussit sans mal (par exemple mémoriser une suite de cent chiffres aléatoires) sera traité de la même façon : l’ordinateur fera semblant de ne pas réussir. Pour reconnaître l’humain, la méthode du juge doit donc s’appuyer sur des tâches que les humains traitent sans difficultés et sur lesquelles les ordinateurs butent.

Comment démasquer une machine ?

L’humour est un point d’attaque possible : racontez une histoire drôle à vos interlocuteurs A et B et demandez-leur d’expliquer où il faut rire et pourquoi. Les questions d’actualité sur lesquelles nous sommes tous informés peuvent aussi servir de base à une tentative d’identification. L’association des deux difficultés sera obtenue par exemple en demandant un commentaire sur le titre de la première page du dernier numéro du Canard enchaîné. Faire tenir à un ordinateur une conversation traitant de toutes sortes de sujets (science, histoire, art, spectacles, musique, gastronomie, etc.) est un objectif extrêmement difficile. L’idée d’Alan Turing semble bonne : si on réussit à tromper un juge avec un programme, cela signifie indubitablement qu’on a mis dans l’ordinateur quelque chose ressemblant à ce que nous appelons de l’intelligence. Aujourd’hui nous sommes loin d’avoir réussi. Ce qui est obtenu avec les meilleurs programmes est un simulacre de conversation qui, en dépit des progrès récents, ne réussit que rarement plus de quelques minutes à entretenir l’illusion.

La réussite du test, une preuve d'intelligence ?

Malgré l’évidente difficulté et l’échec relatif dans lequel nous sommes tenus, certains philosophes, dontJohn Searle, pensent que même si nous réalisons un programme réussissant le test de Turing, cela ne prouvera pas que nous avons mis de l’intelligence dans notre ordinateur. Son raisonnement peut se résumer de la façon suivante :

les programmes informatiques sont syntaxiques : ce ne sont que des outils à manipuler des symboles ; les pensées humaines ont un contenu sémantique : un sens est attaché aux mots que nous utilisons, qui ne se réduisent pas à de la syntaxe, ce sens provient de propriétés biologiques particulières de nos neurones qu’un programme ne peut pas posséder.

En conséquence, les programmes ne penseront jamais et ne seront jamais intelligents. Cette façon de voir les choses permet, en dehors de toute tentative concrète, de conclure que les ordinateurs programmés ne penseront jamais, et qu’ils ne posséderont jamais aucune intelligence authentique. Et cela, même si on réussissait à leur faire passer le test de Turing. Pour John Searle, la réussite au test n’est pas une condition suffisante pour qu’on puisse parler d’« ordinateur intelligent ». L’article original où John Searle exposait en 1980 son point de vue était accompagné de vingt-six commentaires critiques et, depuis cette date, une multitude d’autres discussions se sont déroulées. Sans entrer dans les controverses, remarquons cependant que ce raisonnement semble biaisé. Effectivement, aujourd’hui les ordinateurs sont incapables de nous imiter de manière satisfaisante, refuser de les qualifier d’« intelligents » peut donc se justifier, mais si un jour l’imitation était parfaite ? S’il existait un système que rien ne distinguerait dans un dialogue d’un être humain ? Alors serions-nous certainement forcés de reconnaître à cet objet une forme d’intelligence, une intelligence artificielle.

Le test de la mouette

Une critique plus subtile à l’encontre du test de Turing a été formulée par Robert French. Alors que John Searle considère que le test de Turing n’est pas une condition suffisante pour qu’on puisse affirmer qu’un ordinateur pense, Robert French soutient lui que passer le test Turing n’est pas une condition nécessaire d’intelligence.

Il imagine l’histoire d’un peuple qui ne connaîtrait qu’une seule espèce d’oiseaux : les mouettes. Ce peuple se poserait le problème de réaliser une machine volante et pour savoir s’il a réussi, utiliserait le « test de la mouette » : une machine serait dite « volante » s’il est impossible de la distinguer d’une mouette dont le comportement serait observé à l’aide d’un radar. Le radar limiterait la précision de la demande d’imitation tout comme le dialogue par le biais d’échanges dactylographiés limite la précision de la demande d’imitation dans la mise en œuvre du test de Turing. Bien sûr les avions, les hélicoptères, les montgolfières et même les oiseaux autres que les mouettes ne réussiront pas le test de la mouette et ne seront donc pas considérés comme capables de voler. Est-ce bien raisonnable ? Certes non.

Pour Robert French, le test de Turing est une condition suffisante d’intelligence, mais d’intelligence humaine : passer le test assure qu’on est intelligent comme l’est un humain. De plus, ce test est lié à la langue utilisée pour les dialogues, ce qui empêche de le considérer comme universel. Robert French affirme qu’il se pourrait bien que nombre de nos comportements dépendent fortement de la façon particulière dont notre cerveau traite l’information au niveau le plus profond − il parle de « processus subcognitifs », c’est-à-dire, dont nous n’avons pas une conscience claire. Imposer comme preuve d’intelligence une imitation servile du comportement humain, c’est se protéger à trop bon compte du risque de devoir admettre que des machines intelligentes sont devenues nos concurrentes, puisqu’une intelligence « autre », n’ayant pas la même façon très particulière de traiter le langage que la nôtre, ne réussirait pas le test quelles que soient la finesse et la profondeur de son jugement et de ses connaissances.

Nao, le robot humanoïde français.
Photo © NAO, Aldebaran Robotics. Mon psychanalyste est un programme

C’est seulement dans la décennie 1960 que des programmes capables de dialogue en langue naturelle sont apparus (on les nomme chatbots ou chatterbotspour « robots de conversation »). Un de ces programmes est le célèbre Eliza de Joseph Weizenbaum mis au point en 1964 au Massachusetts Institute of Technology (MIT). Le mécanisme interne du programme est assez simple. Les phrases de l’interlocuteur sont analysées et, à partir de leur structure grammaticale, une réponse est construite en utilisant certains des mots de l’interlocuteur. Des phrases passe-partout sont aussi utilisées pour détourner la conversation ou pour esquiver les questions lorsque le programme se trouve embarrassé. Le but d’Eliza était de jouer le rôle d’un psychanalyste attentif à ce que dit son interlocuteur et l’incitant à se confier. Bien qu’il fût conçu comme un amusement sans prétention, certaines personnes l’utilisant et informées de sa véritable nature se prirent au jeu et se confièrent à lui comme s’il s’agissait d’un être humain. Des utilisateurs passionnés prétendirent même s’y être attachés.

Un concours pour les meilleures conversations

Depuis 1990 se déroule un concours annuel, le prix Loebner, qui détermine, sur la base d’une procédure inspirée du test de Turing, le meilleur programme de conversation générale. Aujourd’hui aucun candidat ne s’est révélé très intéressant et il semble qu’il manque quelque chose pour réaliser de bons systèmes informatiques de dialogue réellement susceptibles de tromper un juge.

Certains chercheurs ont jugé que l’organisation de ce prix était inutile et même nuisible au progrès des recherches en intelligence artificielle. En effet, disent-ils, en détournant les chercheurs d’objectifs plus raisonnables et en les incitant à accumuler des astuces dans leurs programmes qui ne sont finalement que de simples bases de données conçues pour faire semblant d’être intelligent sans l’être vraiment, on ne fera pas avancer la véritable compréhension de l’intelligence.

Même si certains chatbots sont conçus pour imiter des personnes humaines ayant existé (John Lennon, Elvis Presley, Jésus, etc.), aujourd’hui les spécialistes les plus optimistes ne se risquent pas à parier pour un succès avant 2030. Puisqu’il semble qu’on en reste à faire des programmes qui, comme Eliza en 1964, sont sans véritable ambition, la date réelle d’un succès définitif pourrait bien être plus lointaine encore.


Read more on Interstices.