Intelligence artificielle : un générateur de texte trop efficace pour être diffusé

Comment un tel logiciel peut-il être dangereux?

startup-593341

OpenAI est une organisation assez singulière. Fondée sans but lucratif, elle développe des intelligences artificielles au service de l’humain et avec un sens de l’éthique important. Ses fondateurs, Elon Musk (Paypal, Tesla) et Sam Altman (Y Combinator) sont très engagés dans le domaine.

Il y a quelques jours, OpenAI a fait une annonce étonnante. La société était sur le point de sortir un générateur de texte très puissant. Trop puissant? Elle a décidé de ne pas publier le code source, qui permettrait à n’importe qui d’avoir accès au programme, contrairement à ses habitudes. Ses créateurs étaient effrayés par son potentiel.

Répondant au doux nom de «GPT-2», le logiciel informatique est programmé pour faire une chose simple : prédire le mot suivant le plus logique dans une phrase. Il lui suffit d’une ou deux phrases pour compléter la suite, et rédiger des paragraphes entiers. Selon OpenAI, on ne pourrait pas faire la différence entre un texte écrit par un humain et un texte généré par la machine. Et ce n’est pas tout. GPT-2 est capable de comprendre des textes, les traduire, répondre aux questions et les résumer. Évidemment, ça concerne autant la fiction que les articles de presse. Le journal britannique The Guardian s’est même livré au test, et le résultat est impressionnant.

Un potentiel qui cache un risque trop important

Ce qui pousse OpenAI à ne pas diffuser le code source, ce sont toutes les craintes liées à une utilisation malveillante du logiciel. GPT-2 est largement capable de créer une quantité abominable de Fake News, de commentaires et d’avis sur des produits. N’importe qui pourrait alimenter les complots, répandre de fausses informations ou vendre des arnaques, par exemple. Diffuser un tel produit en open source, c’est prendre le risque que tout le monde puisse l’utiliser de manière malveillante. Dès lors, la société a décidé de continuer à tester son produit. Une version light sera tout de même mise en ligne, accompagnée d’une fiche technique destinées aux chercheurs.

« On doit être super prudents avec les intelligences artificielles, potentiellement plus dangereuses que les armes nucléaires. »

Elon Musk, le célèbre fondateur du constructeur automobile Tesla, ne cache pas ses craintes vis-à-vis de l’évolution technologique des intelligences artificielles. En 2014, il avait déclaré être plus inquiet à propos des cette technologie que par les armes nucléaires. OpenAI a été mis en place pour garder un contrôle.

Derrière tout ça, il ne faut pas oublier que Musk est un entrepreneur, et que ses déclarations peuvent aussi être une manière de gérer son image. En tout cas, il a le mérite de sensibiliser le public sur les fake news, et relancer le débat sur les intelligences artificielles.

Sur le même sujet
Plus d'actualité