aa_Sprachlust_Daniel_4c

Daniel Goldstein © Grietje Mesman

Sprachlupe: KI ist findig, wird aber nicht immer gut fündig

Daniel Goldstein /  Die Modelle werten ihre Trainingstexte gewandt aus, aber ohne eigentliche Recherche im Internet und ohne Gewähr für Richtigkeit.

Gleich zwei schweizerische KI-Anwendungen sind in den letzten Wochen verfügbar geworden: nach Apertus nun auch myAI von Swisscom. Mit allerlei Fragen testeten verschiedene Medien, was diese Modelle «wissen». Dabei zeigte sich wiederholt, dass das in solchen Systemen gespeicherte Wissen wenig mit dem zu tun hat, was gemeinhin als Wissen gilt: gesicherte Fakten gezielt abrufen zu können. Um als intelligent gelten zu können, müsste jemand (oder etwas) aufgrund solchen Wissens dann auch noch Schlüsse ziehen können, die für die jeweils anstehende Aufgabe nützlich sind. Kürzlich habe ich Irrungen und Wirrungen von KI-Textgeneratoren erfahren, als ich dem seltenen Wort anpreien nachging. Das wiederholte Geflunker bei den Antworten auf diese Wissensfrage führte mich bei Deepseek (und in der Fortsetzung des Protokolls) zu einer guten Erklärung der Funktions­weise:

Die Wissensbasis sind primär die Trainingsdaten

Meine primäre «Wissensbasis» besteht aus den Trainingsdaten, einem enorm großen und vielfältigen Textkorpus (einschließlich Bücher, Websites, Artikel, etc.), mit dem ich trainiert wurde. Dieses Korpus ist:

  • Statistisch, nicht organisiert: Das Wissen ist nicht in einer nach Themen sortierten Datenbank mit expliziten Quellenverweisen abgelegt. Stattdessen habe ich gelernt, statistische Muster in der Sprache zu erkennen – welche Wörter häufig zusammen vorkommen (z.B. «Schiff» und «Seemannssprache»), welche grammatikalischen Strukturen üblich sind und wie Konzepte miteinander in Beziehung stehen.
  • Parametrisiert: Dieses gelernte Wissen ist in den Parametern meines Modells (175 Milliarden bei GPT-3) codiert. Man kann sich diese Parameter wie eine extrem komplexe Landkarte vorstellen, die die Beziehungen zwischen allen Wörtern und Konzepten in meinem Trainingstext abbildet. Wenn ich eine Frage beantworte, «navigiere» ich durch diese Landkarte, um eine wahrscheinliche Wortfolge zu generieren.

Der Unterschied zu einer traditionellen Datenbank

Dieser Ansatz unterscheidet sich fundamental von einer klassischen, wissensbasierten KI (die auf einer manuell kuratierten Wissensdatenbank wie Wikidata oder einer Enzyklopädie operiert).

MerkmalStatistische Sprachmodelle
(wie ich)
Traditionelle Wissensdatenbank
WissensrepräsentationStatistische Muster in ~175 Mrd. ParameternExplizite Fakten (Triples: Subjekt-Prädikat-Objekt)
QuellenUndurchsichtiges Amalgam aus TrainingsdatenExplizit referenzierte und überprüfbare Quellen
StärkeSprachverständnis, Generierung, ZusammenfassungExakte Abfrage von Fakten, 100%ige Überprüfbarkeit
SchwächeHalluzinationen, ungenaue oder erfundene QuellenKein «Verständnis» von Sprache außerhalb der Schemata

Deepseek, 5. 9. 2025

Nun wurde auch diese Auskunft mithilfe des Sprachmodells erzeugt, als wahrscheinliche Wortfolge, die sich aus den Trainingstexten ergibt. «Halluzinationen» sind daher auch in der Selbstdarstellung von Deepseek nicht ausgeschlossen, obwohl die systematische Gliederung der Tabelle so wirkt, als würde eingebautes Wissen zusammengefasst. Dass aber von zwei verschiedenen KI-Modellen übereinstimmendes Geflunker daherkäme, wäre doch sehr unwahrscheinlich. So hatten Googles KI-Übersicht, Chat-GPT und Deepseek bei anpreien recht unterschiedliche Irrwege eingeschlagen. Erhält man indes von verschiedenen Seiten die gleiche Auskunft, so ist diese viel vertrauenswürdiger.

Sie sagen es gut, egal was

Bei der Frage nach der eigenen Wissensbasis hat nun Chat-GPT ganz ähnlich geantwortet wie Deepseek. Technische Zusatzfragen ergaben ein langes Protokoll. Gegen Schluss steht ebenfalls eine Tabelle; sie ist etwas anders aufgebaut als die abgebildete, aber inhaltlich sehr ähnlich. «Sprachverständnis» beansprucht Chat-GPT dabei nicht, wohl aber sprachliche Fähigkeiten: «Kann Infos neu kombinieren, vereinfachen, mit Analogien oder Diagrammen darstellen; passt sich deinem Ton und Kontext an (z. B. bildhafte Erklärungen).» Vermutlich meinte auch Deepseek mit «Sprachverständnis» etwas Ähnliches und nicht, dass das Programm begreift, was seine Aussagen bedeuten. Vielmehr erfasst es, wie Sprache funktioniert, und kann sich deshalb geschickt ausdrücken, ungeachtet des Wahrheitsgehalts. Für die gestellten Aufgaben beweisen beide Dienste immerhin so viel Verständnis, dass sie meistens das gewünschte Thema in der verlangten Art behandeln.

Etwas boshaft könnte man mit einer IT-Redensart sagen, mögliche Halluzinationen in der Antwort seien keine Fehler, sondern eine Funktion des Programms (not a bug but a feature). Im Chat-GPT-Protokoll steht dazu: «Ich kann oft plausibel klingende Fakten liefern, aber ich habe keine interne, durchsuchbare Liste von Quellen, die jede einzelne Aussage belegt. Deshalb rate ich bei kritischen Fakten zur Quellenprüfung. […] Mein Wissensstand ist ein Schnappschuss bis zu einem bestimmten Cut-off (bei mir: bis zu meinem Trainings/Update-Zeitpunkt). Ohne Online-Recherche kann ich neuere Ereignisse nicht kennen.»

Schwachpunkt Online-Recherche

Quellenprüfung und Online-Recherche sind gute Stichworte, wenn es um die Zuverlässigkeit von Auskünften geht – egal, ob man sich selber auf die Suche macht oder das einer KI-Anwendung überlässt. Im zweiten Fall darf man bloss nicht meinen, so ein dienstbarer Geist durchforsche nun das Internet und wisse schon, welchen Quellen man vertrauen dürfe. Die grossen Sprachmodelle (LLM in der englischen Abkürzung) suchen im eigenen Trainingsmaterial, aber nicht direkt nach Sachaussagen, sondern nach Wörtern, die sich zu einer Antwort auf die gestellte Frage zusammen­fügen lassen. Die Wahrscheinlichkeit, dass diese Antwort stimmt, steigt mit der Qualität der fürs Training verwendeten Texte. Bei den Branchenführern wird den Modellen so ziemlich alles im Internet Greifbare verfüttert, und damit steigt die Gefahr, dass eine weitere IT-Redensart passt: «GIGO, garbage in, garbage out». Sehr frei zu Deutsch: Wes Mist ich fress, des Mist ich sing.

Soll zusätzliche Information direkt im Internet gesucht werden, gibt sich Chat-GPT recht zugeknöpft: Es macht sich nicht selbständig auf die Suche, und gibt man ihm eine Adresse ein, die es konsultieren soll, so tut es das nur oberflächlich, ohne Fenster und Weiterleitungen der besuchten Seite zu beachten. Als Hauptgrund dafür nennt es die Sicherheit: «sehr hoch, weil kaum Angriffsfläche (keine Skripte, keine Cookies)». Nach dem entsprechenden Verhalten der «Konkurrenz» gefragt, antwortet Chat-GPT ziemlich technisch, der (hier nicht wiedergegebenen) Vorgeschichte angemessen:

Wie sieht es bei der „Konkurrenz“ aus?

Ich habe keine Einsicht in die internen Implementierungen, aber öffentlich bekannte Infos und Nutzerberichte lassen sich so zusammenfassen:

  • Anthropic Claude
    • Hat (je nach Version) ebenfalls ein Web-Tool für Online-Suche.
    • Auch dort gilt: kein echtes Browser-Rendering. Claude holt Texte von Suchmaschinen/Seiten und fasst sie zusammen.
    • JavaScript/iframes werden meist nicht interpretiert.
    • Encoding-Probleme tauchen seltener auf, aber auch dort gibt es keine „volle Browserumgebung“.
  • Deepseek (chinesischer Anbieter)
    • Fokus stark auf Modellleistung, weniger auf Webanbindung.
    • Hat in manchen Umgebungen Plugins, die ähnlich wie bei mir Text aus Webseiten extrahieren.
    • Auch dort sind Sicherheits- und Einfachheitserwägungen wichtiger als 100 % Browser-Funktionalität.
  • Google Gemini
    • Google hat theoretisch die Infrastruktur, eine Art „Mini-Browser“ im Hintergrund laufen zu lassen.
    • Dennoch gilt: das Webmodul von Gemini verhält sich im Prinzip wie bei mir → es zieht die Suchergebnisse aus Google Search API und liest (meist nur Textinhalte) von ausgewählten Seiten. Kein freies Surfen mit vollem Rendering.
    • Vorteil: enge Integration mit Googles Indizes → oft aktueller, aber technisch auch „eingeschränktes Crawling“, nicht volles Browsing.
  • Perplexity / Companion
    • Arbeiten stark mit Retrieval aus Indexen + direktem Nachladen von Quellseiten.
    • Auch hier: kein echtes Browser-Rendering, sondern Textzugriff.
    • Vorteil: Sie haben eigene, große gecrawlte Indizes, die viele Encoding-Probleme vorab lösen.

Chat-GPT, 3. 10. 2025

Da die Swisscom-AI auf Anthropic Claude (Google/Amazon) beruht, dürfte sie zu etwas besserer Suche fähig sein als Chat-GPT; erste Testberichte lassen das ebenfalls vermuten. Deepseek geht überhaupt nur dann auf die externe Suche, wenn man die Schaltfläche «Search» angeklickt hat; dann aber liefert es nicht nur Auskünfte, sondern nach einem weiteren Klick auch die konsultierten Adressen. Bei meinen Versuchen waren oft recht abwegige Websites dabei (manche interessant, aber nicht zweckdienlich); Deepseek zeigte sich indes fähig, die passenden Funde auszuwählen. Über Apertus habe ich Chat-GPT nicht befragt; meine eigenen Versuche bestätigen, was andere Kritiker bemängelten: Da diese Eigenentwicklung aus der Schweizer Wissenschaft ein kleineres Trainingsvolumen hat, hängt der Erfolg stark davon ab, ob das Thema dort hineinpasst. Die eigene Suche im Internet wird einem nicht abgenommen, aber man erhält ausgiebige Tipps dazu.

Weiterführende Informationen

  • Indexeintrag «KI» in der laufenden «Sprachlupen»-Sammlung: tiny.cc/lupen3
  • Quelldatei für RSS-Gratisabo «Sprachlupe»: sprachlust.ch/rss.xml; Anleitung: sprachlust.ch/RSS.html

Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.

Mit Twint oder Bank-App auch gleich hier:



_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

Portrait_Daniel_Goldstein_2016

Sprachlupe: Alle Beiträge

Daniel Goldstein zeigt, wie Worte provozieren, irreführen, verharmlosen – oder unbedacht verwendet werden.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

Ihre Meinung

Lade Eingabefeld...