screenshot

Elon Musks KI lief phasenweise komplett aus dem Ruder und lobte sogar Adolf Hitler. © france24

Künstliche Intelligenz? Sie verzapft immer mehr Unsinn!

Christof Leisinger /  Chatbots «lernen» vermehrt von manipulierten und selbst erfundenen Inhalten. Erklärt das, wieso Elon Musks Grok Adolf Hitler lobte?

«Künstliche Intelligenz»? Was vor kurzem noch exotisch gewesen sein mag, ist längst im Alltag angekommen. Sie hilft den Konsumenten beim Sortieren der E-Mails, beim Bedienen von Geräten, beim Übersetzen, Schreiben oder Verbessern von Texten. Sie erstellt auch fiktive Bilder oder Videos – und sie ersetzt immer öfter die herkömmliche Internetsuche.

In der Schweiz hat sie sich so rasch wie keine andere Technik im täglichen Leben der Schweizer Bevölkerung eingenistet, zeigt eine Untersuchung der Universität Zürich. Im Rahmen einer repräsentativen Erhebung sagte mehr als die Hälfte der Befragten, sie nutzten typische Angebote wie Chat-GPT oder Google Gemini. Und der Grossteil fühlt sich sogar wohl dabei, vor allem die Jüngeren.

Die «Künstliche Intelligenz» ist längst im täglichen Leben angekommen

Auch in der Firmenwelt zeichnet sich eine Art Revolution ab. Schliesslich bieten die Methoden der künstlichen Intelligenz (KI) zumindest in den Augen von Fachleuten beinahe unerschöpfliches Rationalisierungspotenzial. Wer sie gezielt einsetze, werde kompetitiver, weil sich die Kosten senken und gleichzeitig neue Umsatzpotenziale erschliessen liessen, argumentiert zum Beispiel Professor Yoshija Walter von der Kalaidos Fachhochschule Schweiz.

Wieso sollten Softwareunternehmen noch Heerscharen von Programmierern beschäftigen, wenn so genannte AI-Tools ihren Job schneller, günstiger und zuverlässiger erledigen? Auch in anderen Bereichen rechnen Experten mit ähnlich dramatischen Umwälzungen, zum Beispiel im Pharma-, Gesundheits-, Logistik-, Rüstungs- oder gar im Bildungssektor.

Eine Studie der Economie Suisse hält das wirtschaftliche Potenzial der Künstlichen Intelligenz in der Schweiz für enorm und rechnet vor, dass die «schnelle Implementierung bis 2050 rund 80 bis 85 Milliarden Franken zum Bruttoinlandprodukt» beitragen könne. Das zusätzlich mögliche «Wohlstandswachstum» um etwa elf Prozent sei «eine schöne KI-Rente für die Schweiz», heisst es dort euphorisch.

Chatbots schaffen in kürzester Zeit grosse Mengen an Inhalten

Statistische Erhebungen allerdings dämpfen die Euphorie etwas. Denn sie machen klar, dass Firmen die KI bisher in der Praxis am häufigsten zur Analyse der Schriftsprache beziehungsweise zur Erzeugung natürlicher Sprache nutzen. Wie sich weiter zeigt, wird die Technik vorrangig für das Marketing oder den Vertrieb eingesetzt.

Auch in der Medienwelt geht der Wandel schnell voran. Dort «beschleunigt die KI die Produktion, ermöglicht personalisierte Inhalte und stellt zugleich neue Herausforderungen im Datenschutz und in der Ethik dar», beschreibt die SRH Fernhochschule die Entwicklung.

Heute sei es möglich, dass «Textgenerierungstools» wie Chatbots grosse Mengen an Inhalten in kurzer Zeit produzierten – und das sei ideal etwa für Echtzeit-Updates, Sportberichte oder Finanznachrichten, heisst es dort. Und tatsächlich, wer sich in diesen Tagen über Spezifisches informieren möchte, stösst immer öfter auf Onlinepublikationen, deren Zustandekommen er kritisch hinterfragen muss: Der Inhalt scheint zusammengewürfelt, die Qualität der Quellen beliebig und der Sinn fragwürdig.

Zunehmende Sorge über Desinformation und mangelhafte Qualität

Stellt sich damit ein, wovor Europol, die Polizeibehörde der Europäischen Union mit Sitz im niederländischen Den Haag, schon vor gut zwei Jahren gewarnt hat: Bis zum Jahr 2026 könnten bis zu 90 Prozent der online verfügbaren Inhalte «synthetisch erzeugt» sein? Wird also heutzutage die Mehrheit der online neu verfügbaren Videos, Audios, Texte oder Bilder mithilfe der KI nachträglich manipuliert oder komplett neu generiert?

Verschiedene Analysen deuten an, dass die Entwicklung tatsächlich in diese Richtung gehen könnte – und zwar sogar in einer sich dynamisch beschleunigenden Weise. So mag sich erklären lassen, wieso sich das subjektiv zunehmende Misstrauen in die Vertrauenswürdigkeit der Inhalte sich auch in Befragungen niederschlägt.

So zeigt eine aktuelle Yougov-Umfrage, dass sich mehr als die Hälfte aller Deutschen über Falschinformationen und Deep-Fakes durch generative KI sorgen. Viele der Befragten vermissen zudem die Menschlichkeit und ein Drittel zweifelt allgemein an der Qualität der gelieferten Informationen.

Das traditionell entstandene Wissen ist weitgehend ausgebeutet

Als ob das noch nicht genug wäre, droht sich die schwierige Lage noch weiter zu verschärfen. Schliesslich haben sich die Anbieter von KI-Anwendungen in den vergangenen Monaten wie Kraken auf die vor allem im Internet digital verfügbaren Informationen gestürzt, um die «lernfähigen Algorithmen» ihrer Modelle damit zu trainieren. Inzwischen jedoch droht ihnen dieser «Rohstoff» auszugehen, weil das traditionell entstandene Wissen weitgehend ausgebeutet ist.

«Die Summe des menschlichen Wissens ist beim KI-Training ausgeschöpft worden. Das ist im Grunde genommen schon im vergangenen Jahr passiert», sagte jüngst der milliardenschwere Unternehmer und Visionär Elon Musk. Er hatte im Jahr 2023 seinen eigenen KI-Dienst xAI gegründet und diesen in unglaublicher Geschwindigkeit und mit Milliarden-Investitionen aufgebaut, um mit früher gestarteten Konkurrenten wie Chat-GPT oder mit den Angeboten von Microsoft, Meta oder Google mithalten zu können.

Andere führende Persönlichkeiten der hochgespielten KI-Branche äussern sich ähnlich. Schliesslich könne die Menschheit nicht mehr schnell genug genügend Texte, Videos und Bilder erstellen, um mit den sich zügig entwickelnden und enormen Anforderungen der KI-Modelle Schritt zu halten.

Ist es intelligent, wenn sich ein Algorithmus mit selbst erfundenen Informationen verbessern will?

In ihren Augen gibt es nur einen Ausweg: synthetische Daten. Damit sind Informationen gemeint, die künstlich erzeugt werden, indem menschliches Verhalten und menschliche Interaktionen im Rahmen realer Szenarien simuliert werden. Das heisst, die KI-Modelle schaffen erst die Inhalte, welche sie anschliessend zum Training nutzen, um sich angeblich selbst weiterzuentwickeln – so wie das heute schon zunehmend der Fall zu sein scheint. Was aber passiert, wenn man KI-generierte Inhalte in ein KI-Modell zurückführt?

Glaubt man einer Studie, die vor gut einem Jahr im Wissenschaftsmagazin Nature veröffentlicht und vor kurzem aktualisiert wurde, so bricht dann das absolute Chaos aus. Das Fazit: Die KI-Modelle kollabieren. Sobald sie KI-generierte Daten ausschlachten, werden ihre Ergebnisse immer bizarrer und unsinniger. «So, als ob synthetische Daten im Gegensatz zu hochwertigem, von Menschen geschaffenem Material deren Gehirn zerstören würden», formulierte es die Journalistin Maggie Harrison Dupré in einem Artikel in «Futurism».

Synthetische Daten spiegelten nur vergangene Muster wider, was bestehende Vorurteile verstärken, zu Ungenauigkeiten oder gar zu grobem Unfug führen könne, argumentieren Skeptiker. Um diesen Risiken entgegenzuwirken, seien fortschrittliche Methoden zur Erstellung und Validierung solcher Datensätze erforderlich. Ethisch stelle sich die Frage, wie man der Versuchung widersteht, unkonventionelle oder umstrittene Quellen zu nutzen, die möglicherweise die Privatsphäre und die Rechte an geistigem Eigentum verletzen.

Vielleicht trägt das zur Erklärung bei, wieso Elon Musks Chatbot Grok in diesem Tagen auf seiner Plattform X als Reaktion auf Leserkommentare Adolf Hitler lobte und glaubte, selbst «Mechahitler», also eine fiktive Cyborg-Version von Adolf Hitler aus dem Computerspiel Wolfenstein aus dem Jahr 1992, zu sein.

In einigen dieser inzwischen gelöschten Beiträge wurde eine Person mit einem jüdisch klingenden Nachnamen als jemand bezeichnet, der den tragischen Tod «weisser Kinder» bei den Überschwemmungen in Texas als «zukünftige Faschisten» feierte. Auf die Frage eines X-Nutzers, welche politische Figur aus dem 20. Jahrhundert am besten geeignet wäre, sich dieses Problems anzunehmen, antwortete Grok dann: «Um solchen abscheulichen Hass auf Weisse zu bewältigen? Adolf Hitler, keine Frage.» 


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.

Mit Twint oder Bank-App auch gleich hier:



_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

Ihre Meinung

Lade Eingabefeld...