1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Faktencheck: Fake-Ärzte in den Sozialen Medien

Silja Thoms
5. Oktober 2023

KI-generierte Ärzte in weißen Kitteln verbreiten Gesundheitstipps in den Sozialen Medien. Die Videos werden teilweise tausendfach geklickt. Was ist dran an den Behauptungen? Und wie gefährlich ist KI in der Medizin?

https://p.dw.com/p/4X8go
Ein künstlich generierter Arzt im weißen Kittel spricht über Chia-Samen, ein Glas mit Chia-Samen steht im Bildvordergrund
Ein Fake-Arzt spricht in einem Video über die Wirkung von Chia-Samen

Mit Arzt-Kittel und Stethoskop um den Hals geben Ärzte und Ärztinnen in Videos in den Sozialen Medien Gesundheits-Tipps, nennen natürliche Heilmittel gegen Krankheiten oder erklären, wie die Zähne wieder weißer werden. Nur handelt es sich nicht um richtige Ärzte, sondern um künstlich generierte Bots, die ihre vermeintlichen Informationen mit hunderttausenden Abonnenten teilen. Doch nicht jede dieser Behauptungen ist wahr. 

Können Chia-Samen Diabetes unter Kontrolle bringen?

Behauptung: "Chia-Samen können Diabetes unter Kontrolle bringen", behauptet ein KI-generierter Ärzte-Bot auf Facebook (archiviert). Das Video hat über 40.000 Likes, wurde über 18.000-mal geteilt und hat etwa 2,1 Millionen Aufrufe.

DW Faktencheck: Fake

Chia-Samen erfreuen sich größter Beliebtheit - nicht zuletzt aufgrund ihrer vielen positiven Wirkstoffe. Sie enthalten einen hohen Gehalt an ungesättigten Fettsäuren und Ballaststoffen sowie essentiellen Aminosäuren und Vitaminen. Laut einer US-amerikanischen Studie aus dem Jahr 2021 hatten Chia-Samen durchaus eine positive Wirkung auf die Gesundheit. So hatten Personen mit Typ-2-Diabetes und Bluthochdruck einen sehr viel niedrigeren Blutdruck, nachdem sie über mehrere Wochen hinweg eine bestimmte Menge an Chia-Samen zu sich genommen hatten. Eine andere im April 2023 veröffentlichte Studie bestätigt, dass Chia-Samen unter anderem antidiabetische sowie entzündungshemmende Eigenschaften aufweisen. 

Chia-Samen können sich also positiv auf die Gesundheit von Personen mit verschiedenen Diabetestypen auswirken. "Von Heilung kann aber keine Rede sein", teilte uns Andreas Fritsche, Diabetologe am Universitätsklinikum Tübingen, auf Anfrage mit. Es gibt also keine wissenschaftlichen Belege, die zeigen, dass Chia-Samen Diabetes heilen oder vollständig unter Kontrolle bringen können.  

Symbolbild: Computer-Tablet mit Spritze, Stethoskop und Medizin
Künstliche Intelligenz in der Medizin bringt viele Vorteile, birgt aber auch RisikenBild: Michael Bihlmayer/CHROMORANGE/picture alliance

Doch es handelt sich bei dem Video nicht nur um eine inhaltlich falsche Aussage, sondern auch um einen falschen Arzt. Von ebendiesen falschen Ärzten und Ärztinnen sind in den Sozialen Medien zahlreiche Videos zu finden. Mal sprechen sie davon, welche Mittel die Gesundheit fördern. In anderen Videos geben die künstlich generierten Ärzte Schönheits-Tipps, etwa welche Hausmittel den Bartwuchs anregen oder wie die Zähne wieder weißer werden.

Besonders viele dieser Videos von künstlich generierten falschen Ärztinnen und Ärzten gibt es auf Hindi, auch wenn die meisten eine englische Bezeichnung im Profil-Namen haben. Tatsächlich ist Indien laut einer kanadischen Studie aus dem Jahr 2021 während der Covid-19-Pandemie zu einem Hotspot von falschen Informationen rund um das Thema Gesundheit geworden. Die Daten zeigen: Indien liegt weit vor anderen Ländern wie den USA, Brasilien und Spanien, in denen ebenfalls eine große Menge an Desinformation rund um die Pandemie zu sehen waren. Die Studie sieht mögliche Ursachen in der höheren Internet-Durchdringungsrate des Landes, dem zunehmenden Konsum sozialer Medien und die teilweise mangelnde Internetkompetenz von Nutzern und Nutzerinnen.  

Wie ist Indien zum Hotspot für Fake News geworden?

Denn die künstlich generierten Ärzte können vertrauenserweckend aussehen. Sie haben einen Kittel an, sind mit einem Stethoskop ausgestattet oder tragen OP-Kleidung, als seien sie geradewegs aus einer Operation gekommen. Schon allein das Auftreten als Arzt kann viele in die Irre führen, so Stephen Gilbert, Professor für Medical Device Regulatory Science am Else Kröner-Fresenius-Zentrum für Digitale Gesundheit an der medizinischen Fakultät der TU Dresden. Er forscht unter anderem zu Medizin-Software, die auf künstlicher Intelligenz beruht. "Es geht darum, die Autorität eines Arztes zu vermitteln, der eine sehr maßgebende und rechtlich verankerte Rolle in fast allen Gesellschaften hat", sagte er im Gespräch mit der DW. Sei es bei der Verschreibung von Medikamenten, bei der Diagnose, sogar bei der Entscheidung, ob jemand tot ist oder lebt. 

"Es handelt sich also um eine vorsätzliche Falschdarstellung zu bestimmten Zwecken." Diese Zwecke können laut Gilbert je nach dem genauen Verwendungszweck variieren. Es könne sich um den Verkauf eines Produkts oder den Verkauf einer Dienstleistung, also den Verkauf einer medizinischen Beratung, handeln, die in Zukunft kommen könnte.

Können Hausmittel Gehirnkrankheiten heilen?

Behauptung: "Das Mahlen von sieben Mandeln, zehn Gramm Kandiszucker und zehn Gramm Fenchel und die 40-tägige Einnahme mit heißer Milch am Abend heilt alle Arten von Gehirnkrankheiten", behauptet dieser künstlich generierte Arzt in einem Video auf Instagram (archiviert). Der Account hat über 200.000 Abonnenten und das Video wurde über 86.000-mal angesehen.

DW Faktencheck: Fake

Ein Arzt in weißem Kittel spricht, während unter seinem Video ein Bild von einem Gehirn zu sehen ist.
Fake-Ärzte verbreiten teils falsche Gesundheits-Tipps in den Sozialen Medien

Dieses Rezept soll vermeintlich konkrete Anweisungen geben, um alle Gehirnkrankheiten zu heilen. Die Aussage sei aber falsch, teilte uns Prof.Dr. Frank Erbguth, Präsident der Deutschen Hirnstiftung, auf Anfrage mit. Es gibt keine Belege dafür, dass diese Rezeptur eine heilsame Wirkung bei Gehirnkrankheiten hat. Bei einer Online-Suche nach einer Mischung dieser Zutaten, konnten keine Ergebnisse gefunden werden. Die Deutsche Hirnstiftung rät auf ihrer Seite, bei dringenden Symptomen, wie etwa Lähmungen und Sprachstörungen, umgehend einen Arzt aufzusuchen.

Im Video ist - wie in vielen anderen Videos auf ähnlichen Accounts - ein künstlich generierter Arzt zu sehen, der einen weißen Kittel trägt. Obwohl die Videos laut Gilbert leicht als ein Fake zu erkennen sind, etwa am statischen Bild des Arztes mit einem sich bewegenden Mund und sehr minimalen Gesichtsbewegungen, warnt er dennoch vor dem Potenzial, das die künstliche Intelligenz in der Medizin in Zukunft haben kann: “Der höchst besorgniserregende Bereich, in den sich dies mit ziemlicher Sicherheit bewegen wird, wird darin bestehen, all diese Prozesse miteinander zu verknüpfen, so dass Antworten in Echtzeit erzeugt werden, die von der generativen KI generiert werden und mit der generativen Audio-KI der Antwort verknüpft werden.” 

Eine Radiologin im Unfallkrankenhaus Berlin betrachtet in einer KI-basierten App auf einem Tablet Gehirnbilder eines Patienten
Eine Studie aus dem Jahr 2021 zeigte: CT-Bilder können manipuliert werdenBild: Monika Skolimowska/dpa/picture alliance

Neben Videos, die manipuliert werden können, birgt Künstliche Intelligenz aber auch Risiken in anderen Bereichen, zum Beispiel bei sogenannten Deep Fakes in der medizinischen Diagnostik. So gelang es Wissenschaftlern in einer israelischen Studie aus dem Jahr 2019 mehrere CT-Scans mit gefälschten Bildern zu erstellen und damit zu zeigen, dass Tumore auf CT-Bildern hinzugefügt oder entfernt werden können. Ähnliches gelang in einer Studie aus dem Jahr 2021: Hier konnten realistische und überzeugende Elektrokardiogramme erstellt werden, die einen falschen Herzschlag zeigten. Auch Chat-Bots können eine Gefahr darstellen, denn ihre Antworten können sich plausibel anhören, selbst wenn die Antwort falsch ist. "Man stellt eine Frage, und sie präsentieren sich als sehr sachkundig. Das ist ein sehr gefährliches Szenario für Patienten", so Gilbert. 

Doch trotz der Risiken, hat die Künstliche Intelligenz in den vergangenen Jahren auch eine immer bedeutendere Rolle in der Medizin eingenommen. So unterstützt sie Ärzte und Ärztinnen bei der Analyse von Röntgen- und Ultraschallbildern sowie bei der Diagnostik und Behandlung. Auch Gilbert sieht nicht nur die negativen Seiten von Künstlicher Intelligenz: "In vielen Ländern ist medizinische Beratung sehr teuer oder gar nicht zugänglich", sagte er. "Für viele Menschen in vielen Ländern könnte der Zugang zu Informationen also ein großer Vorteil sein."

Die Frage sei dann natürlich, ob diese Informationen zuverlässig und korrekt sind. Um das zu überprüfen, könnten Nutzende, die sich zunächst online über Symptome informieren wollen, sich Videos von zertifizierten Betreibern anschauen oder wenn möglich auch zusätzlich wissenschaftliche Studien lesen und die Informationen vergleichen.

Auch sei es, so Gilbert, bei Webseiten, Apps oder Accounts stets ratsam, zu prüfen, welches medizinische Team dahintersteht. Wenn man nicht erkennen könne, wer dahintersteckt, sei es am besten, skeptisch zu bleiben und davon auszugehen, dass es sich um keine zuverlässige Quelle handelt.

An diesem Artikel hat Avinash Dwivedi mitgearbeitet.

Künstliche Intelligenz - nützlich oder gefährlich?