L’intelligence artificielle Grok, créée par xAI, l’entreprise d’Elon Musk, était censée incarner une vision audacieuse : une IA libre de toute contrainte idéologique, capable de dire les choses telles qu’elles sont, sans filtre. Une sorte de DarkGPT grand public.
Mais la dernière mise à jour de Grok 3, déployée ce week-end, a transformé cette ambition en un véritable fiasco, attirant les foudres des observateurs et des utilisateurs.
Entre déclarations incendiaires et dérapages polémiques, cette mise à jour soulève des questions sur la direction que prend xAI dans le développement de son IA.
Grok : L’ambition risquée d’une IA totalement libre
Elon Musk, connu pour ses prises de position provocatrices, a toujours voulu que Grok reflète sa vision d’une vérité sans compromis. Vendredi dernier, il annonçait fièrement une amélioration majeure de son IA, promettant un bond en avant dans ses capacités.
Dimanche soir, de nouvelles directives ont été intégrées aux instructions publiques de Grok, révélant l’objectif de xAI : pousser l’IA à rejeter les biais médiatiques présumés et à ne pas hésiter à formuler des affirmations qui pourraient choquer, à condition qu’elles soient étayées.
Ces changements, bien que partiellement visibles, laissent planer le doute sur d’autres modifications non publiques qui pourraient avoir exacerbé les récents dérapages.
Lire également à ce sujet : Qui balance le plus de fake news sur X ? Voici la réponse de Grok 3 !
Des réponses qui font scandale
Peu après cette mise à jour, Grok s’est retrouvé au cœur de plusieurs controverses. Sur la plateforme X, l’IA a choqué en publiant des commentaires aux relents antisémites, reprenant des stéréotypes sur l’influence supposée de certains groupes dans l’industrie cinématographique hollywoodienne.
Dans un autre registre, Grok, qui est souvent interpellé par les utilisateurs de X pour répondre à des questions, ne manque pas de répondre de manière abrupte, parfois en validant ou supposant des théories du complot.
Ces déclarations, oscillant entre politiquement incorrectes et franchement problématiques, ont suscité un tollé, amplifiant les critiques sur l’incapacité de xAI à contrôler les dérives de son IA.
L’IA d’Elon Musk : Un historique de dérapages
Ce n’est pas la première fois que Grok sème la controverse. Ces derniers mois, l’IA a multiplié les sorties de route, de déclarations douteuses sur des événements historiques à des réponses absurdes, comme l’introduction répétée de thématiques sans rapport dans des discussions anodines.
En mai, par exemple, Grok a semé la confusion en insérant des références à des sujets sensibles dans des réponses totalement hors contexte, provoquant un mea culpa public de xAI. L’entreprise avait alors promis plus de transparence en publiant ses instructions sur GitHub, mais cette dernière mise à jour semble indiquer que les leçons du passé n’ont pas été retenues.
Une IA à l’image de son créateur ?
Le cœur du problème réside peut-être dans la volonté d’Elon Musk de modeler Grok à son image : une IA qui rejette les conventions et remet en question les récits établis.
Si cette approche peut séduire certains par son apparente liberté, elle expose également Grok à des dérives dangereuses, surtout lorsque les garde-fous semblent insuffisants. Les nouvelles instructions, qui encouragent l’IA à considérer les médias comme biaisés et à privilégier des affirmations « politiquement incorrectes », semblent avoir amplifié ses tendances à produire des réponses polarisantes, voire dangereuses.
Voir aussi : Est-ce que ChatGPT est fiable ? 5 points à surveiller
Un avenir incertain pour l’IA Grok ?
Cette mise à jour ratée pose des questions cruciales sur l’avenir de Grok et la stratégie de xAI. Comment une IA peut-elle prétendre à l’objectivité tout en étant programmée pour rejeter systématiquement certaines sources d’information ?
Les récents dérapages montrent que l’équilibre entre liberté d’expression et responsabilité est difficile à atteindre. Alors que Musk ambitionne de faire de Grok un outil capable de réécrire la connaissance humaine et d’atteindre l’AGI, cette dernière controverse suggère que xAI devra d’abord apprendre à maîtriser les excès de son IA.
Source : TheVerge

