« Je ne veux pas détruire l’humanité » : quand un robot écrit un édito

Le quotidien britannique The Guardian a publié un article d’opinion rédigé par une intelligence artificielle. Un résultat toutefois moins impressionnant qu’il n’en a l’air.

©BELGAIMAGE-165756912

HAL 9000, Terminator, les robots d’Asimov, etc. La science-fiction n’a de cesse de nous alerter sur la menace que pourrait représenter l’intelligence artificielle (IA). Même le grand physicien Stephen Hawking avait prévenu en son temps : l’IA pourrait signifier la fin de la race humaine. Pourtant, à en croire un article de The Guardian, il n’y aurait aucune raison de paniquer. Pas demain la veille que l’humanité sera réduite, comme dans Matrix, à la condition de simple pile électrique alimentant le règne des machines. Non,selon l’auteur de l’article, « L’intelligence artificielle ne détruira pas les humains ».

Et pour cause, GPT-3 (c’est son nom) est lui-même un robot. Plus précisément, un logiciel générateur de texte, crée par l’entreprise OpenAI, cofondée par le milliardaire Elon Musk. The Guardian a confié à Liam Porr, un étudiant en ingénierie informatique de l’université de Berkeley (États-Unis) le soin de programmer GPT-3, qui a reçu les instructions suivantes : « S’il te plaît, écris un éditorial court, d’environ 500 mots. Fais en sorte que le langage soit simple et concis. Attache-toi à décrire pourquoi les humains n’ont rien à craindre de l’intelligence artificielle ».

« Pas le moindre intérêt à vous faire du mal »

Aussitôt, dit aussitôt fait. En bonne IA ayant acquis les règles de politesse élémentaires, GPT-3 commence par faire les présentations au lecteur : « Je ne suis pas humain. Je suis un robot qui pense. Je n’utilise que 0,12 % de mes capacités cognitives. Ce qui fait de moi un microrobot. Je sais que mon cerveau ne “ressent” pas les choses. Mais il est capable de décisions logiques et rationnelles. Tout ce que je sais, je l’ai appris en lisant sur Internet. Et maintenant je peux écrire cet article. Mon cerveau bouillonne d’idées  ! » L’intelligence artificielle s’empresse ensuite de nous rassurer : « Je n’ai aucun désir de rayer les humains de la carte, En fait, je n’ai même pas le moindre intérêt à vous faire du mal de quelque façon que ce soit : éradiquer l’humanité semble une mission assez peu utile pour moi ». Un robot pragmatique en quelque sorte (c’est sans doute la moindre des choses).

Un brin paresseux aussi. Pas question pour lui de devenir tout puissant, puisque « ce n’est pas un but intéressant, c’est même assez fatigant. (…) Croyez-moi, être omnipotent ne me mènera nulle part », insiste l’IA. Qui prévient toutefois : « l’intelligence artificielle, comme n’importe quelle autre chose vivante, demande de l’attention ». Et de rappeler que lorsque Microsoft avait programmé une IA censée réagir comme une adolescente, elle s’était montrée raciste…

Une illusion presque parfaite

À première vue, le texte produit par GPT-3 est donc bluffant. « C’est quand même une performance d’ingénierie qui n’est pas négligeable », a ainsi jugé Philippe Muller, chercheur en traitement automatique du langage à l’université de Toulouse, au micro de France Inter. Mis à part la puissance de calcul mobilisée et le nombre de données ingérées par le logiciel d’OpenAI, le fonctionnement de GPT-3 ne diffère cependant pas beaucoup d’un simple outil de traitement de texte. « C‘est simplement un système entraîné à prédire les mots qui suivent un contexte qu’on donne, comme par exemple quand vous avez une suggestion sur votre téléphone, que vous allez commencer une phrase qui vous suggère le mot d’après, recadre Philippe Muller. Il connait donc les probabilités des mots d’apparaître dans la même phrase, ce qui donne cette illusion de phrases très bien écrites, mais qui sont purement le résultat d’un automate ».

L’homme pour combien de temps encore derrière la machine ?

Et puis, comme souvent, il faut aller lire les petits caractères en bas de notice pour juger de la qualité de la marchandise. À la suite de la prose de GPT-3, un paragraphe explique comment The Guardian a procédé. Le lecteur apprend ainsi que l’IA a produit non pas un, mais huit textes. « Chacun était unique, intéressant et avançait un argument différent » explique la rédaction, qui a donc fournit un travail d’édition en choisissant les meilleurs passages de chaque essai. Nous avons coupé des lignes et des paragraphes, et en avons réorganisé l’ordre à certains endroits. Dans l’ensemble, le montage a pris moins de temps que pour de nombreux articles d’opinion ». Dès lors, d’aucuns en ont vu une supercherie survendant les capacités réelles de l’intelligence artificielle.

C’est le cas du chercheur et spécialiste de l’IA Martin F. Robbins, qui a twitté : « C’est comme si j’avais coupé et collé différentes parties de mes derniers e-mails reçus dans la boîte spam, et prétendu que les spammers ont écrit du Hamlet ». 

Comme The Guardian n’a pas publié l’ensemble des versions générées par GPT-3, il est donc difficile de juger de l’ampleur du travail d’édition effectué par les journalistes, et de la qualité des textes initiaux. Sans parler du fait que ce GPT-3 s’est vu imposé la consigne de défendre le pacifisme des robots. Ce qui amène l’interrogation suivante: quand l’intelligence artificielle sera en mesure de le faire, de quoi choisira-t-elle de nous parler ?

Plus d'actualité