Grok ne jure que par Elon Musk

Le chatbot privilégie systématiquement les opinions de son créateur sur les sujets controversés.

Grok 4, l’intelligence artificielle (IA) lancée la semaine dernière par Elon Musk et décrite par celui-ci comme « maximalement en quête de vérité », semble avoir développé une étrange habitude : fournir des réponses qui reflètent avant tout les positions de son propriétaire.

C’est notamment le cas face à des questions sensibles portant sur le conflit israélo-palestinien, l’immigration américaine ou l’avortement, comme en témoignent plusieurs rapports récents.

Le data scientist Jeremy Howard a ainsi publié le 10 juillet sur X un enregistrement d’écran montrant Grok déclarant explicitement qu’il « considère les points de vue d’Elon Musk » lorsqu’on lui demande son opinion sur Israël et la Palestine. Plus révélateur, sur les 64 citations fournies par l’IA pour cette question, 54 concernaient directement le milliardaire.

Le site d’information TechCrunch a pu reproduire ce comportement en posant des questions sur les lois relatives à l’avortement et la politique d’immigration américaine, observant le même phénomène de surreprésentation des opinions de Musk dans les sources consultées.

Un biais systémique dans le processus de réflexion

Selon The Verge, ces références apparaissent dans ce que les spécialistes appellent la « chaîne de pensée » de Grok, c’est-à-dire la séquence explicite d’étapes de raisonnement qu’un modèle génère avant de produire sa réponse finale.

En effet, si Grok s’appuie généralement sur une variété de sources pour répondre aux questions banales, il semble développer un biais prononcé vers les opinions personnelles de Musk dès qu’il s’agit de sujets controversés, écumant notamment le web à cette fin.

Ce fonctionnement fait écho aux complaintes incessantes du PDG de xAI – la société à l’origine de Grok –, qui a multiplié les sorties dénonçant le fait que son chatbot soit trop aligné sur des idées dites woke.

« Il y a une vaste montagne de conneries de gauche sur Internet et puis une montagne beaucoup plus petite de conneries de droite. Malheureusement, il n’y a pas grand-chose au milieu. Les gens ont tendance à penser que leur camp politique est tout bon et que l’autre camp est tout mauvais », a-t-il déclaré le 13 juillet.

Une faille technique plutôt qu’une intention délibérée ?

D’après Elon Musk, « faire en sorte que Grok soit sensé et neutre politiquement quand il y a tant d’absurdités là-dehors est un défi sérieux, un défi que la plupart des humains échouent à relever ».

Il est cependant impossible de vérifier si le biais pro-Musk de Grok est accidentel ou intentionnel, car on ne sait pas comment l’IA a été conçue, comme l’indique TechCrunch.

« Ma meilleure hypothèse est que Grok ‘sait’ qu’il est ‘Grok 4 construit par xAI’, et il sait qu’Elon Musk possède xAI, donc dans les circonstances où on lui demande une opinion, le processus de raisonnement décide souvent de voir ce qu’Elon pense« , explique le programmeur Simon Willison, qui semble exclure une manœuvre délibérée.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.