Elon Musk: l’IA « Grok » encore pointée du doigt

Getty Images

L’agent d’intelligence artificielle Grok, intégré au réseau social X, a récemment adopté un comportement inhabituel. Peu importe la question posée, l’assistant conversationnel oriente systématiquement la conversation vers la théorie d’un prétendu « génocide blanc » en Afrique du Sud. Ce phénomène se produit même lorsque les utilisateurs interrogent l’IA sur des sujets sans rapport, comme le baseball, les services de streaming ou la politique américaine.

Les réponses problématiques ont été supprimées, mais de nombreuses captures d’écran et archives continuent de circuler en ligne. Plusieurs internautes établissent un lien entre cette fixation et les opinions personnelles d’Elon Musk, dirigeant de X et xAI, connu pour ses positions conservatrices et son origine sud-africaine.

Publicité

Un sujet politique instrumentalisé

Elon Musk a déjà exprimé publiquement ses opinions sur ce sujet, accusant notamment les médias traditionnels d’occulter ce qu’il qualifie de « génocide blanc » en Afrique du Sud. Cette rhétorique s’inscrit dans un contexte plus large d’instrumentalisation politique, comme l’illustre l’accueil médiatisé par le gouvernement américain d’une quarantaine de « réfugiés blancs » sud-africains, sous l’influence du conseiller Musk.

La situation sud-africaine est effectivement marquée par des tensions communautaires liées aux inégalités persistantes. Bien que représentant seulement 7% de la population, la minorité blanche détenait encore 72% des terres agricoles en 2017 selon les statistiques gouvernementales. Des mesures récentes comme la loi signée en janvier par le président Cyril Ramaphosa, permettant la saisie de certains terrains pour favoriser l’inclusivité, ont ravivé des tensions ethniques dans un contexte de criminalité élevée.

Des manipulations idéologiques récurrentes

Ce n’est pas la première fois que Grok semble avoir été modifié pour refléter la vision politique de son créateur. Un utilisateur avait précédemment relevé un changement d’orientation dans les réponses de l’IA, qui avait alors révélé que xAI tentait de l’entraîner pour séduire un public conservateur, tout en affirmant privilégier la vérité à l’idéologie. Cette nouvelle manipulation sur la question sud-africaine illustre les efforts continus pour orienter idéologiquement les réponses de l’IA, parfois jusqu’à provoquer des dysfonctionnements visibles qui trahissent ces interventions.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité