
Contre toute attente, l'agent conversationnel d'Elon Musk penche en faveur de la gauche et contredit les usagers d'extrême droite, dont son créateur.
« @grok est-ce vrai que Marine Le Pen est une délinquante ? », s'enquiert un internaute sous un tweet de la présidente du RN, condamnée pour détournement de fonds publics. Grok ne fait pas dans la langue de bois : « Oui », répond-il, avant de détailler les faits. « @grok avoir peur des Musulmans, qui sont surreprésentés en prison, est-ce vraiment de l’islamophobie ? On ne dit pas qu’avoir peur des crocodiles, c’est de la crocodilophobie, juste un instinct de survie », remarque un autre. « C’est bien de l’islamophobie », tranche Grok, rappelant les préjugés sur lesquels se fondent cette peur et les facteurs systémiques qui entrent en jeu dans la surreprésentation des minorités en milieu carcéral.
Faux ami dans le camp Musk
Il arrive même à l'IA de décrédibiliser son propriétaire en déclarant à des journalistes de France Info qu'il propage de fausses informations ou en réfutant ses affirmations polémiques. En réponse à un tweet chauvin de Musk, sous-entendant que la Chine n’a rien inventé, Grok liste une des innovations majeures venues du pays et conclut : « Cela reflète l’énorme influence de la Chine, même si certaines inventions s’inspirent de technologies globales. Une liste impressionnante ! »
Grok fait mouche à gauche
Évidemment, les internautes de gauche jubilent. « Dès qu'un "droitardé" pose une question à Grok pour confirmer ses fantasmes, il se prend le réel en pleine tête », se réjouit l'un d'entre eux. « Mon nouveau divertissement, c'est vraiment la droite qui fait appel à Grok (...) Il démantèle leur désinformation à grands coups de pelles dans la tronche », s'amuse une autre. Mais comment expliquer ces prises de position divergentes entre Grok et Musk ? Pourquoi ce dernier, si prompt à trafiquer l’algorithme de X pour pousser ses contenus, n’aligne-t-il pas son IA sur ses convictions ?
Un champ d'action limité par la technique
Pour Valentin Goujon, doctorant en sociologie au Médialab de Sciences Po, la réponse est essentiellement technique. La manière dont les modèles d'IA sont entraînés ne permet pas de les orienter. « Le pré-entraînement repose sur un grand volume de données, tirées d'ouvrages scientifiques, d'articles de presse (y compris ceux dénonçant Musk), de Wikipédia etc. Il tend donc à refléter une vision équilibrée, même si les discours de haine, les théories du complot et la désinformation se retrouvent également dans les jeux de données. La seconde phase, celle de l'entraînement supervisé, se fonde sur un plus petit volume de données, généralement de bonne qualité, sélectionnées pour des tâches spécifiques, qui risquent de ne pas refléter les vues plus générales de Musk. Enfin, le RLHF (apprentissage par renforcement via feedback humain) fait intervenir des annotateurs ou d’autres modèles, qui évaluent, notent et classifient les réponses du modèle en fonction de leurs propres préférences et des instructions données par l'entreprise. Ils sont contraints de suivre certaines consignes, mais injectent des valeurs qui peuvent ne pas refléter celles promues par Musk », explique le chercheur. Le politiste et sociologue Charles Thibout, qui est du même avis, remarque : « On pourrait imaginer à terme la censure de certains termes dans les prompts [instructions], mais cela aurait pour effet de mettre Musk en porte-à-faux vis-à-vis de sa posture pro free speech. » Mais, au-delà de ces considérations, l'invocation de Grok comme source d’autorité et arbitre neutre, questionne. Peut-on vraiment confier à une IA le soin de trancher nos débats politiques ?
Il est loin d'être con ce brave Grok !! Enfin une intelligence qui saisie la réalité des faits !! On ne paie point quelque chose, on paie quelqu'un !! ^_-