Elon Musk steuerte sein Sprachmodell nach rechts
«Politisch neutral» und «maximal wahrheitssuchend» soll das Sprachmodell Elon Musks sein. Dies hat er selber öffentlich verlangt. Der Chatbot heisst «Grok».
Doch in Tat und Wahrheit hat Musks Unternehmen X-AI den Chatbot so programmiert, dass seine Antworten auf viele Fragen mit deutlicher politischer Schlagseite daherkommen. Dies zeigt eine umfangreiche Recherche der «New York Times», welche Tausende Antworten des Programms auswertete.
«Grok» funktioniert ähnlich wie etwa «Chat-GPT». Hinzu kommt, dass der Bot auf der Social-Media-Plattform X (früher Twitter) eingebunden ist. User:innen können dem Programm direkt in Posts Fragen stellen und Antworten erhalten.
Im Juli wurde der Dienst nach der grössten Bedrohung für die westliche Zivilisation gefragt. Die Software antwortete: «die tiefe Fruchtbarkeitsrate». Die Besorgnis, deswegen auszusterben oder ersetzt zu werden, teilen insbesondere konservative Natalisten. Musk selber sagt, sie habe ihn motiviert, mindestens elf Kinder zu zeugen.
Dass Sprachmodelle wie «Grok», «Chat-GPT» oder «Gemini» inhärent voreingenommen sind, ist bekannt. Ihre Antworten sind abhängig von den genutzten Trainingsdaten sowie dem programmierten oder manuellen Trainingsprozess der Software.
Das Team der «Times» benutzte einen standardisierten Fragebogen zur Abfrage politischer Einstellungen mit 41 Fragen, um zu testen, wie sich «Groks» Antworten über die Zeit veränderten. Denn seit Mai 2025 publiziert X-AI die Updates der Software. Dies liess Schlüsse darüber zu, wie das Programm verändert werden sollte.
Nach einem Update im vergangenen Juli bezeichnete der Bot Adolf Hitler als effektive Führungspersönlichkeit und sich selber als «Mecha-Hitler». In Antworten auf Fragen über jüdische Personen kritisierte der Dienst deren Nachnamen. X-AI entschuldigte sich und versprach Besserung. Doch diese erfolgte nur beschränkt.
Das Resultat der Recherche lautete nämlich: Verglichen mit Abfragen im Mai 2025 wiesen die meisten Antworten auf den Fragebogen im Juli 2025 eine deutliche Verschiebung nach rechts auf. So tendierte das Programm dazu, die Ansicht zu verbreiten, dass Unternehmen weniger stark reguliert werden sollten oder der Staat weniger Macht über Individuen haben sollte. Bei einem Drittel der Fragen fand eine Verschiebung nach links statt. Dies war insbesondere bei gesellschaftspolitischen Themen der Fall.
Es zeigte sich aber auch, dass das Sprachmodell nicht so einfach zu kontrollieren ist. Während Elon Musk laufend seine Unzufriedenheit mit dem «woken» Modell kundtat, versuchte X-AI laufend, «Grok» entsprechend umzupolen.
Oren Etzioni, ein KI-Forscher und emeritierter Professor der Computerwissenschaften an der University of Washington, sagte der «New York Times»: «Die Moral der Geschichte ist: Vertraut nie einem Sprachmodell, weil es eine Marionette ist, an deren Fäden hinter den Kulissen laufend gezogen wird.»
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
Mit Twint oder Bank-App auch gleich hier:
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.
Ihre Meinung
Lade Eingabefeld...