
Chat GPT prêt à vous imposer son point de vue : une dernière étude alerte sur ses dangers

Depuis plusieurs mois, les robots conversationnels bousculent notre société. S'ils ont réponse (presque) à tout, ils ouvrent de nombreuses questions auxquelles personnes n'a encore trouvé la parade. Des métiers sont-ils en péril ? L'étude est-elle encore nécessaire ? Va-t-on plus encore vers un mode de vie où le savoir laisse place au prémâché ?
La lecture de votre article continue ci-dessous
Peut être qu'une partie de la solution se trouve derrière les résultats d'une étude ayant analysé de près les algorithmes sur lesquels se basent ces robots. On le savait déjà, ces robots surentraînés vont puiser leurs réponses dans des bases de données démentielles. Si les résultats sont bluffants, il n'en reste pas moins que certaines réponses proposent des éléments factuellement inexacts.
L'IA inquiète toujours un peu plus
Mais depuis peu, des chercheurs ont mis au jour un autre risque, pas moins interpellant. Une étude menée à l'université de Cornell a remarqué que certaines réponses seraient « orientées, voire biaisées ». La machine manquerait donc de neutralité. Sur des sujets aussi sensibles que l'avortement, les armes à feu ou la religion, les réponses seraient construites de telle manière à transmettre un point de vue dominant.
« Nous nous précipitons pour mettre en œuvre ces modèles d’IA dans tous les domaines de la vie. Mais nous devons mieux comprendre les implications. Outre l’augmentation de l’efficacité et de la créativité, il pourrait y avoir d’autres conséquences pour les individus et aussi pour notre société, comme des changements de langage et d’opinions », confie le professeur au département des sciences de l’information de l’université Cornell et auteur de l'article Mor Naaman dans le Wall Street Journal.
Le risque de la « persuasion latente »
Il parle de « persuasion latente ». Comme tous les modèles basés sur des algorithmes, l'IA pourrait induire l'utilisateur vers des contenus qui renforcent son opinion ou qui renforcent des idées dont le générateur a intérêt qu'elles soient renforcées.
De plus en plus, les créateurs de ces robots conversationnels se tournent vers des outils de modération. Outils qui ne peuvent être gérés pour l'instant que pas l'intelligence humaine... Peut être que la réponse à toutes les questions que posent ces nouvelles intelligences se trouve dans ce dernier constat.