Die «FN» vervielfältigen einen Buben
Die Manipulation ist offensichtlich. Auf dem Bild, das die «Freiburger Nachrichten» zur Solennität in Murten veröffentlicht haben, macht ein Bub inmitten anderer Kinder bei der Choreographie mit. Links davon der gleiche Bub – allerdings mit überraschend kleinem Kopf. Und auf dem Bauch dieses Buben prangt der Kopf noch einmal.
«Verzerrt»
Die «Freiburger Nachrichten» veröffentlichten am nächsten Tag ein Korrigendum. Sie schrieben: «Bei der Bearbeitung eines Bildes in den ‹FN› vom Montag gab es eine technische Panne. Dabei hat KI das Bild verzerrt, ohne dass dies beabsichtigt war.»
Die Erklärung überzeugte nicht. Denn das Bild war nicht verzerrt. Es war ganz offensichtlich manipuliert. Und bei der Manipulation muss etwas schiefgelaufen sein.
Korrigendum des Korrigendums
Es sieht danach aus, als hätten die «Freiburger Nachrichten» die Kontrolle über Photoshop, Chat-GPT und dergleichen verloren. Denn schon am nächsten Tag veröffentlichten sie ein Korrigendum des Korrigendums vom Vortag. Das Bild, schrieben sie, habe «einige Irrtümer generiert». Und weiter: «Beim Versuch, einige Schatten im Foto manuell aufzuhellen, hat die Reporterin aus Versehen eine Fehlmanipulation vorgenommen. Die am Dienstag nachgelieferte Begründung, wonach es sich um einen ‹KI-Fehler› gehandelt habe, ist falsch.»
Das heisst: Die Veranwortlichen der «Freiburger Nachrichten» haben die Übersicht darüber verloren, was mit den Bildern alles angestellt wird – ob sie mit Bildbearbeitungsprogrammen oder sogar mit KI verändert werden. Und gegenüber den Lesern deklarieren sie die Manipulationen nicht.
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
Mit Twint oder Bank-App auch gleich hier:
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.
Wer schon mal mit Photoshop gearbeitet hat, weiss, dass hat mit KI nichts zu tun. Ist ein klassischer Bildbearbeitungs-Patzer, wo jemand versehentlich die ‹Stempel›-Funktion verwendet hat.
Ich habe auch Bedenken, was auf die Gesellschaft zukommt, wenn man keinem Bild mehr trauen kann, aber dieser Beitrag ist nun doch sehr reisserisch, von wegen, eine Zeitung habe die Kontrolle verloren. Einzig sehr peinlich ist die falsche Rechtfertigung im ersten Anlauf… die wurde wohl von chatGPT geschrieben :))
Danke für dieses überzeugende Beispiel…
Die Bildbearbeitung eines Fotos als Raw-Datei oder als JPEG ist quer durch alle Medien notwendig, selbstverständlich und üblich, ohne dass dies ausgewiesen werden muss. Beschneiden, perspektivisch Entzerren, Schärfen, Tiefen aufhellen, Kontraste steigern, Farben anpassen etc. gehört zum Tagesgeschäft, wer auch immer das dann macht, ob der Fotograf selbst, der Produzent oder eine Maschine. Selbst das Unkenntlichmachen von Bildteilen wie Autonummern oder Gesichtern ist Teil dieser Arbeit. Die Semantik darf dabei jedoch nicht verändert werden. Es darf nicht eine Wasserlache in der Nähe eines Tatorts rot eingefärbt werden; es darf nicht auf dem Reportage-Bild einer armseligen Hütte der Video-Beamer im Hintergrund wegretuschiert werden; es darf nicht ein KI-generiertes Bild als Foto ausgegeben werden. Die Grenzen sind hier jedoch fliessend. Dass aber die Journalistin das Nachbelichtungs-Werkzeug mit dem Kopier-Stempel verwechselt, ist schlicht dilettantisch. Ist das einen Artikel wert?
Es gibt noch einen anderen Buben, der mindestens zweimal vorkommt. Vielleicht ist das noch nicht einmal alles! Was stimmt wirklich auf diesem Bild?
Ja, den anderen Buben, der mindestens zweimal vorkommt, habe ich auch gleich auf Anhieb entdeckt. Wenn ich meinen Augen trauen darf, gibt’s auch ein doppeltes Mädchen…