Sperberauge
«Chat-GPT» verdreht Studie zur Grippeimpfung ins Gegenteil
Woher stammen die Informationen zur Schutzwirkung der Grippeimpfung in einem offiziellen Dokument? Das wollte ein neugieriger Mensch von «Chat-GPT» wissen.
Die Künstliche Intelligenz antwortete, die Quelle sei eine 2018 von der «Cochrane»-Wissenschaftsvereinigung veröffentlichte Zusammenfassung von Studien zu dieser Frage. «Chat-GPT» bezog sich darauf und schrieb:
«Eine weitere Meta-Analyse von Cochrane, einer angesehenen weltweiten Organisation für Gesundheitsforschung, ergab, dass die Grippeimpfung das Risiko schwerer Komplikationen und des Todes bei älteren Menschen signifikant verringert. Die Untersuchung kam zum Schluss, dass die Grippeimpfung bei älteren Erwachsenen die Zahl der Hospitalisationen um etwa 30 Prozent verringert. Und sie verringert auch die Sterblichkeit aufgrund grippebedingter Komplikationen.»
In Wahrheit steht in der besagten Publikation aber etwas ganz anderes:
Die Grippeimpfung reduzierte die Wahrscheinlichkeit, dass über 65-Jährige während einer Grippesaison erwiesenermassen an Grippe erkrankten, von etwa 6 auf 2,4 Prozent. Was Hospitalisationen, schwere Erkrankungen und Todesfälle betraf, liessen sich aufgrund der lückenhaften Daten bzw. wenigen Fälle keine Schlüsse ziehen. «Die verfügbaren Belege sind von schlechter Qualität, unzureichend oder veraltet. Daraus lassen sich keine klaren Empfehlungen ableiten bezüglich der Sicherheit oder Wirksamkeit von Grippeimpfstoffen für Menschen im Alter von 65 Jahren oder älter», schrieben die Autoren. Es brauche darum weitere (und bessere) Studien, forderten sie.
Dazu eine falsche Quellenangabe
«Chat-GPT» untermauerte seine Angaben, indem er die Nummer angab, mit der die besagte Studie angeblich in der grossen medizinischen Datenbank «Pub-Med» zu finden sei.
Dumm nur: Diese Nummer führt zu einer Studie, bei der es um eine Technik zur Suche nach Lymphknoten-Metastasen bei Magenkrebs geht.
Laien können die irreführenden Behauptungen von «Chat-GPT» nicht durchschauen
Der neugierige Mensch liess die Antwort von «Chat-GPT» nicht gelten. Nach mehrmaligem Hin und Her entschuldigte sich die «Künstliche Intelligenz» zuletzt: «Ich habe einen Fehler gemacht, und ich schätze es sehr, dass Sie das bemerkt haben.»
«Chat-GPT» sei eine weitere Quelle des «strukturierten Unsinns», schreiben die beiden Medizinprofessoren Carl Heneghan und Tom Jefferson, die diese Episode in ihrem Blog «Trust the Evidence» schildern.
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
Mit Twint oder Bank-App auch gleich hier:
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.
Ihre Meinung
Lade Eingabefeld...