"Nothing, Forever", cette sitcom créée par une intelligence artificielle... avant d'être bannie

L'intelligence artificielle prouve une nouvelle fois ses pouvoirs (et ses limites) avec cette sitcom, inspirée de la série culte Seinfeld.

© Nothing Forever

Les intelligences artificielles sont sur tous les fronts. Elles peuvent créer des textes, des images, de la musique... et dorénavant des sitcoms. C'est le cas de Nothing, Forever, inspirée d'un grand classique du genre : Seinfeld. Ici, Jerry, George, Elaine et Kramer ont été rebaptisés Larry, Yvonne, Fred et Zoltan, avec des voix plus robotiques et un visuel (beaucoup) plus pixelisé. Les dialogues n'ont aucun sens, les personnages passent à travers tout et les rires pré-enregistrés tombent après des moments souvent improbables et pas drôles (comme dans certaines sitcoms, diront certaines mauvaises langues...).


Une absurdité totale, qui l'a rendu addictive pour de nombreux spectateurs : diffusée en continu sur Twitch depuis mi-décembre, elle avait suscité plus de 175.000 abonnements, et quelques 10.000 personnes la regardaient à tout moment de la journée. Au passé, puisque la plateforme a suspendu pour au moins 14 jours Nothing, Forever - qui porte désormais mal son nom. Pourquoi ? Le personnage principal, qui présente un même goût pour le stand-up que Seinfeld, aurait tenu des propos jugés transphobes et homophobes. en cherchant des sujets pour faire rire l'assemblée, il aurait déclaré : «Je pense faire un peu sur la façon dont la transidentité est en fait une maladie mentale. Ou comment tous les libéraux sont secrètement homosexuels et veulent imposer leur volonté à tout le monde. Ou quelque chose sur la façon dont les transgenres ruinent la société.»

Incident récurrent

Les créateurs, qui s'appuient sur le programme GPT-3 de la firme OpenAI, assurent que ces répliques générées par ordinateur ne reflètent pas leur opinion et estiment que le problème est lié à un changement d’algorithme. Un incident récurrent pour les intelligences artificielles : lorsque l'algorithme est entraîné - en partie - avec du contenu haineux ou discriminatoire, le résultat se révèle, lui aussi, haineux ou discriminatoire.

Sur le même sujet
Plus d'actualité