Maximilian Kasy

Professor Maximilian Kasy © Oxford University

KI: «Die Privatsphäre können wir nur noch kollektiv schützen»

upg. /  Open Source, wenige Cookies, Ad-Blocker, Cache leeren: Alles helfe nur beschränkt. Es brauche die Kontrolle über die Algorithmen.

«Stellen Sie sich vor, Sie bewerben sich um eine Stelle. Sie wissen, dass Sie ein aussichtsreicher Kandidat mit einem herausragenden Lebenslauf sind. Aber Sie erhalten nicht einmal einen Rückruf.

Vielleicht ahnen Sie es: Ein Algorithmus für künstliche Intelligenz wird zur Vorauswahl von Bewerbern verwendet. Er hat entschieden, dass Sie ein zu grosses Risiko darstellen. 

Vielleicht kam der Algorithmus zum Schluss, dass Sie nicht zur Unternehmenskultur passen, oder dass Sie sich später wahrscheinlich in einer Weise verhalten werden, die zu Reibungen führen könnte, beispielsweise durch den Beitritt zu einer Gewerkschaft oder die Gründung einer Familie. 

Sie haben keine Chance, seine Argumentation nachzuvollziehen oder sie anzufechten.»

So illustriert Professor Maximilian Kasy, wie stark wir den KI-Algorithmen ausgeliefert sind. Kasy ist Wirtschaftsprofessor an der Universität Oxford und Autor des Buches «The Means of Prediction: How AI Really Works (and Who Benefits)». Oder auf Deutsch: «Die Fähigkeit vorherzusagen: Wie KI wirklich funktioniert (und wer davon profitiert)».

Kasy warnt davor, die KI-Algorithmen könnten uns um unseren Arbeitsplatz, unser Glück und unsere Freiheit bringen – ja sogar unser Leben kosten.

«Es nützt wenig, wenn Sie sich um den Schutz Ihrer digitalen Privatsphäre bemühen. Auch wenn Sie die meisten persönlichen Details für sich behalten, es vermeiden, Ihre Meinung online zu äussern, und wenn Sie Apps und Webseiten verbieten, Sie zu tracken. 
Denn es genügen der KI die wenigen Details, welche sie über Sie hat, um vorauszusagen, wie Sie sich bei der Arbeit verhalten werden. Sie stützt sich auf Muster, die sie von unzähligen anderen Menschen wie Ihnen gelernt hat.»

Diese bedrückende Feststellung machte Kasy in einem Gastbeitrag für die «New York Times».

Konkret könne es so ablaufen: Banken verwenden nicht die individuellen Klicks, sondern eigens konzipierte Algorithmen, um zu entscheiden, wer einen Kredit erhält. Ihre KI hat aus früheren Kreditnehmern gelernt und kann deshalb vorhersagen, wer in Zahlungsverzug geraten könnte.

Oder Polizeibehörden speisen jahrelange Daten zu kriminellen Aktivitäten und Verhaftungen in Algorithmen ein, um eine «vorausschauende Polizeiarbeit» zu ermöglichen.

Auch Social-Media-Plattformen würden nicht nur die individuellen, sondern unsere kollektiven Klicks nutzen, um zu entscheiden, welche Nachrichten – oder Fehlinformationen – man zu sehen bekommt. Die Geheimhaltung unserer eigenen Daten schützt davor wenig. Denn die KI muss nicht wissen, was jemand getan hat. Sie muss nur wissen, was Menschen wie Sie vor Ihnen getan haben.

Apple iPhones beispielsweise seien mit Algorithmen ausgestattet, um Informationen über das Verhalten und die Trends der Nutzer zu sammeln, ohne jemals preiszugeben, welche Daten von welchem Telefon stammen. Auch wenn die persönlichen Daten der Einzelnen geschützt würden oder geschützt seien, blieben die Muster in den Daten erhalten. Und diese Muster würden ausreichen, um individuelles Verhalten genau genug vorauszusagen. 

Das Technologieunternehmen Palantir entwickle ein KI-System namens ImmigrationOS für die Einwanderungs- und Zollbehörde. Es soll Personen für die Abschiebung identifizieren und verfolgen, indem es viele Datenquellen miteinander kombiniert und analysiert – einschliesslich Sozialversicherung, Verkehrsamt, Finanzamt, Kennzeichenlesegeräte und Passaktivitäten. ImmigrationOS umgeht damit das Hindernis, welches die differentielle Privatsphäre darstellt.

Auch ohne zu wissen, um wen es sich bei einer Person handelt, könne der Algorithmus wahrscheinlich die Nachbarschaften, Arbeitsplätze und Schulen vorhersagen, in denen sich undokumentierte Einwanderer am ehesten aufhalten. KI-Algorithmen namens Lavender und Where’s Daddy? seien Berichten zufolge in ähnlicher Weise eingesetzt worden, um dem israelischen Militär dabei zu helfen, Ziele für Bombardierungen in Gaza zu bestimmen und zu lokalisieren.

«Es braucht eine kollektive Kontrolle»

Daraus folgert Professor Kasy, dass man seine Privatsphäre nicht mehr individuell schützen kann: «Wir müssen vielmehr eine kollektive Kontrolle über alle unsere Daten ausüben, um zu bestimmen, ob sie zu unserem Vorteil oder zu unserem Nachteil verwendet werden.»

Kasy macht eine Alalogie zum Klimawandel: Die Emissionen einer einzelnen Person verändern das Klima nicht, aber die Emissionen aller Menschen zusammen zerstören den Planeten. Von Bedeutung sind die gesamten Emissionen. 

Ebenso scheine die Weitergabe der Daten einer einzelnen Person trivial, aber die Weitergabe der Daten aller Menschen – und die Beauftragung der KI, anhand dieser Daten Entscheidungen zu treffen – verändere die Gesellschaft. 

Dass jeder seine Daten zur Verfügung stellt, um KI zu trainieren, sei grossartig, wenn wir mit den Zielen einverstanden sind, die der KI vorgegeben wurden. Es sei jedoch nicht so grossartig, wenn wir mit diesen Zielen nicht einverstanden sind und wenn die Entscheidungen des Algorithmus uns unseren Arbeitsplatz, unser Glück, unsere Freiheit oder sogar unser Leben kosten könnten.

Transparenz und Mitbestimmung

Es brauche Institutionen und Gesetze, um den von KI-Algorithmen betroffenen Menschen eine Stimme zu geben. Die Betroffenen müssen entscheiden können, wie diese Algorithmen gestaltet werden und was sie erreichen sollen. 

Der erste Schritt sei Transparenz, sagt Kasy. Ähnlich wie bei den Anforderungen an die Finanzberichterstattung von Unternehmen sollten Unternehmen und Behörden, die KI einsetzen, verpflichtet werden, ihre Ziele und das, was ihre Algorithmen maximieren sollen, offenzulegen: Beispielsweise die Anzahl der Klicks auf Inseraten in Social Media, die Anstellung von Arbeitnehmern, die keiner Gewerkschaft beitreten, die Kreditwürdigkeit oder die Zahl von Abschiebungen.

Der zweite Schritt sei die Mitbestimmung. Die Menschen, deren Daten zum Trainieren der Algorithmen verwendet werden – und deren Leben von diesen Algorithmen geprägt wird –, sollten bei der Festlegung ihrer Ziele mitentscheiden können. Ähnlich wie eine Jury aus Gleichgestellten, die einen Zivil- oder Strafprozess verhandelt und gemeinsam ein Urteil fällt, könnten wir Bürgerversammlungen einrichten, in denen eine zufällig ausgewählte Gruppe von Personen über geeignete Ziele für Algorithmen berät und entscheidet. 

Das könnte bedeuten, dass die Mitarbeiter eines Unternehmens über den Einsatz von KI an ihrem Arbeitsplatz beraten oder dass eine Bürgerversammlung die Ziele von Tools zur prädiktiven Polizeiarbeit überprüft, bevor diese von Behörden eingesetzt werden. Dies sind die Arten von demokratischen Kontrollen, die KI mit dem öffentlichen Wohl in Einklang bringen könnten. Heute sind es private Besitzer. 

Die Zukunft der KI werde nicht durch intelligentere Algorithmen oder schnellere Chips entschieden. Sie werde vielmehr davon abhängen, wer die Daten kontrolliert – und wessen Werte und Interessen die Maschinen leiten.

Wenn wir eine KI wollen, die der Öffentlichkeit dient, müsse die Öffentlichkeit entscheiden, wozu sie dient.

________
Maximilian Kasy: «The Means of Prediction: How AI Really Works (and Who Benefits)», University of Chicago Press, 2025


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.

Mit Twint oder Bank-App auch gleich hier:



_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

Ihre Meinung

Lade Eingabefeld...