top of page
Dr. Harald Wiesendanger

Macht KI die Medizin besser?

Aktualisiert: 24. Apr. 2023

Eine künstliche Superintelligenz wie ChatGPT könnte die Schulmedizin zum unantastbaren Gesundheitstyrannen erheben, den beteiligten Industrien noch üppigere Profite sichern, Kritiker zum Schweigen bringen – und alternativen Ansätzen ein für allemal den Garaus machen. Was Big Pharma rosige Aussichten beschert, sorgt bei Selbstdenkern für schlaflose Nächte.



Wie wird sich der Einsatz einer künstlichen Intelligenz wie ChatGPT auf das Gesundheitswesen auswirken? Fragen wir sie selbst, ich tat dies am 13. April. (1)


Sie antwortete binnen einer Sekunde: Eine solche KI habe das Potenzial für fünf segensreiche Einflüsse, so erläutert ChatGPT. (1.) Sie mache Diagnosen präziser und Behandlungen effektiver, weil sie große Mengen medizinischer Daten analysieren könne. (2.) Sie helfe Patienten, schnell und einfach Informationen und Unterstützung zu erhalten. „Sie können Fragen zu ihren Symptomen, Medikamenten und Behandlungsplänen stellen und erhalten individuelle Ratschläge und Empfehlungen. Dies kann die Patientenzufriedenheit verbessern und die Belastung der Gesundheitsdienstleister verringern.“ (3.) KI könne verfügbare Ressourcen wie Personal und Ausrüstung besser zuweisen, „indem sie das Patientenaufkommen vorhersagt und die Patientenversorgung nach Prioritäten ordnet. Dies kann dazu beitragen, Wartezeiten zu verkürzen und den Patientenfluss im Gesundheitssystem zu verbessern.“ (4.) Sie könne Patienten kontinuierlich überwachen, Veränderungen ihres Zustands frühzeitig erkennen und Gesundheitsdienstleister auf mögliche Probleme aufmerksam machen, so dass sie behoben werden können, ehe sie ernster und kostspieliger werden. Und (5.) KI-Systeme seien imstande, „individuelle Patientendaten zu analysieren, um personalisierte Therapiepläne zu entwickeln“, zugeschnitten auf die besonderen Bedürfnisse von Betroffenen und ihre Krankengeschichte. Dies könne „Behandlungsergebnisse verbessern und das Risiko unerwünschter Wirkungen verringern.“


Mag ja sein. Doch da beschränkt sich ChatGPT auf positive Auswirkungen. Wie steht es denn mit negativen? (2)


In der Tat, so räumt der Chatbot nun ein, gebe es „auch einige potenzielle negative Auswirkungen zu bedenken“. Wiederum zählt er fünf Aspekte auf: (1.) „Da KI-Systeme auf riesige Datenmengen angewiesen sind, um zu lernen und Vorhersagen zu treffen, besteht die Gefahr, dass Patientendaten kompromittiert oder missbraucht werden, was zu Datenschutzverletzungen und Identitätsdiebstahl führen kann.“ (2.) Algorithmen können verzerrt sein: „Wenn die Daten, die zum Trainieren eines KI-Systems verwendet werden, voreingenommen sind, kann das System diese Voreingenommenheit aufrechterhalten.“ (3.) Es könnten Arbeitsplätze von Fachkräften verlorengehen. (4.) Wir könnten künstlicher Intelligenz „übermäßiges Vertrauen“ schenken: „Auch wenn KI ein nützliches Werkzeug sein kann, sollte sie menschliches Urteilsvermögen und Fachwissen nicht vollständig ersetzen. Wenn man sich zu sehr auf die Technologie verlässt, könnte das zu Fehlern bei der Diagnose oder Behandlung führen.“ (5.) Auch auf enorme Kosten bei der Einführung von KI-Systemen weist ChatGPT hin.


ChatGPT selbst warnt davor, ihm „übermäßig zu vertrauen“

Die wohl größte Gefahr erwächst aus dem „übermäßigen Vertrauen“ in „voreingenommene“ KI. Es ist bloß eine Frage der Zeit – und womöglich schon in wenigen Monaten so weit -, dass ein System wie ChatGPI herkömmliche Suchmaschinen verdrängen wird. (Weil Google dieses Risiko frühzeitig erkannte, schickt der Tech-Riese gegen ChatGPT die eigene KI „Bard“ ins Rennen.) Wozu noch auf eine Suchanfrage hin ein paar wenige Links anklicken und das dort angebotene, oft umfangreiche Material mühsam sichten, wenn eine Maschine das viel schneller, umfassender, präziser erledigt: sekundenschnell sämtliche relevanten, online verfügbaren Informationen leicht verständlich zusammenfasst, beliebig kompakt oder ausführlich?


Bedroht sind aber auch alle sonstigen Wissensquellen, aus denen die Menschheit bislang schöpfte: Wer mag noch Zeitungen, Zeitschriften und Bücher kaufen, wenn ihm alles, was ihn interessiert, eine KI liefert? Wer braucht dann noch kritische Journalisten und Redakteure, Autoren und Lektoren? Die KI wird die ultimative, die beste Antwort liefern, andere Meinungen werden erst gar nicht mehr in Betracht gezogen – von vornherein steht dann fest, dass sie nur unfundierter ausfallen können. KI liefert „die Wahrheit“, basta. Wie will man die vorgesetzten Fakten überprüfen? Hat die KI doch schon. Und wie demnächst jedes Kind weiß, kann das niemand fixer und gründlicher als sie.


Aber wäre Verlass auf „Doctor Know“? An sich ist er neutral. Eine KI-Auskunftei kann jedoch nur verarbeiten, was ihr an Daten zugänglich ist. Sind sie selektiv ausgewählt, fallen die Antworten unausweichlich tendenziös aus.


Seine Quellen lässt ChatGPT weitgehend im Dunkeln


Dass ChatGPT auf meine simple Frage „What are the sources of your data?“ (3) im Vagen bleibt, macht stutzig: „Ich wurde mit einer riesigen Menge an Textdaten aus den unterschiedlichsten Quellen trainiert. Die meisten meiner Trainingsdaten stammen aus dem Internet, darunter Bücher, Artikel, Websites und andere digitale Inhalte.“ Als ich nachhake („Which websites?“), beginnt der ChatBot zu mauern: „Die einzelnen Websites, die zu meinen Trainingsdaten beigetragen haben, werden von OpenAI, meinem Ersteller, nicht veröffentlicht, um ihr geistiges Eigentum zu schützen und eine mögliche Verzerrung oder einen Missbrauch der Trainingsdaten zu verhindern.“ Einleuchtend? Jedenfalls dürften Seiten wie reitschuster.de, transition-news oder impfkritik.de eher nicht zu ChatGPTs Datenlieferanten zählen.


Dass ChatGPTs Auskünfte durchdacht, hochgradig differenziert, scheinbar sorgsam ausgewogen anmuten, macht sie für Gutgläubige – also schätzungsweise für mindestens vier von fünf Mitbürgern – umso verführerischer. Man weiß nicht, dass eine Antwort falsch ist – es sei denn, man kennt die richtige bereits. Zurecht weist das Infoportal BleepingComputer.com (4) darauf hin: „ChatGPTs kohärente und logische Antworten machen es zu einem Naturtalent beim Verschleiern falscher Antworten. (…) Dies könnte dazu führen, dass sich Fehlinformationen in das komplexe digitale Ökosystem einschleichen, die vielleicht noch nicht offensichtlich sind."


Perfektes Propagandawerkzeug


Die Gefahren, die mit einer einseitig gefütterten, voreingenommenen Super-KI verbunden sind, liegen auf der Hand. Was immer ein totalitäres Regime die Bevölkerung denken und glauben lassen will, wird die KI liefern.


Und in vermeintlich offenen, demokratischen Gesellschaften? Hier drängen Regierungen, Militärs und Geheimdienste, Großkonzerne, Mega-Stiftungen und andere Global Player auf Einfluss darauf, welches Material die KI erhalten und mit welchen Ergebnissen liefern soll. Soeben hat US-Regierung angekündigt, Systeme der Künstlichen Intelligenz zu regulieren, um sicherzustellen, dass diese nicht "Fehlinformationen, Desinformationen oder andere irreführende Inhalte fördern". Auch in Berlin unfd Brüssel wird darüber nachgedacht.


Für politisch korrekten Output war ohnehin von Anfang an gesorgt. ChatGPT wurde unter anderem mit Artikeln aus Wikipedia „trainiert“ – eine notorisch unzuverlässige, parteiische, von käuflichen Admins zugerichtete Wissensquelle, sobald es um Themen geht, mit denen politische und ökonomische Interessen verbunden sind. Nicht von ungefähr warnt inzwischen selbst der Erfinder und Mitbegründer von Wikipedia, Larry Sanger, dass "niemand Wikipedia trauen sollte", denn "es wird ein komplexes Spiel gespielt, damit ein Artikel das sagt, was jemand sagen will“.


Im Hintergrund zieht Gates die Fäden


Von den 20 Milliarden Dollar, die OpenAI bislang für die Entwicklung von ChatGPT einsammelte, stammt der größte Batzen, zwölf Milliarden, von Microsoft; dafür sicherte sich der Computergigant vorerst einen Anteil von 75 Prozent an den Gewinnen von OpenAI. (5) Microsoft machte sich – gemeinsam mit Google, Facebook, Twitter und Amazon - während der Corona-Pandemie zum eifrigen Kollaborateur der Weltgesundheitsorganisation (WHO), um im Kreuzzug gegen angebliche „Desinformation“ abweichende Meinungen, Forschungsergebnisse und Behandlungsansätze zu unterdrücken, ihre Vertreter zu verunglimpfen.


Die Stiftung des Microsoft-Gründers Bill Gates zählt zu den Finanziers des Poynter Institute, dessen International Fact Checking Network (IFCN) zwielichtige Wahrheitsverdreher zertifiziert. (Siehe KLARTEXT: „Wo bleiben Faktenchecks von Faktencheckern?“ und „Was ist bloß aus dir geworden?“) Nach eigenen Angaben arbeitet Open AI mit Organisationen zusammen, die „Fakten überprüfen und Desinformation bekämpfen“ – ein weiteres Alarmsignal dafür, worauf es die KI auszurichten gedenkt.


Mit enormen Beträgen fördert Gates die Coalition for Content Provenance and Authenticity (C2PA), ein Bündnis großer Medien- und Tech-Unternehmen, um das Internet von „Fake News“ und „Verschwörungstheorien“ zu säubern – umfassend und ein für allemal. Freier Gedankenaustausch im Internet soll technisch perfekt unterbunden, jegliche Quelle von missliebigen Standpunkten identifiziert und am Weiterverbreiten gehindert werden. (Siehe KLARTEXT: „Dieses Zeug muss weg“.)


Wie hätte uns ChatGPT die Corona-Pandemie präsentiert?


Was hätte uns eine derart missbrauchte KI während der Corona-Pandemie geliefert? Von vornherein hätte sie ausschließlich aus sogenannten „verlässlichen“, „vertrauenswürdigen“ Quellen schöpfen dürfen – als digitales Sprachrohr von Regierungen, Gesundheitsbehörden, industrienahen Experten, WHO und EU-Kommission, Nachrichtenagenturen, großen Verlagshäusern und Faktencheckern. Ein System wie ChatGPI hätte sich vortrefflich geeignet, um der Weltbevölkerung noch mehr Angst vor dem Killerkeim aus Wuhan zu machen, sie noch eindrucksvoller von nutzlosen „Schutz“maßnahmen zu überzeugen - insbesondere von unwirksamen, brandgefährlichen Pseudo-„Impf“stoffen - , und alternative Behandlungsmöglichkeiten zu unterdrücken, mit noch höheren Zustimmungsquoten beim Wahlvolk als ohnehin.


Kostprobe gefällig?


Am 15. April 2023 frage ich ChatGPT: „Worin bestand die Notlage, welche die drastischen Einschränkungen von Grundrechten während der Corona-Pandemie rechtfertigte?” Hier liegt ChatGPT ganz auf einer Linie mit schrillsten Alarmisten: “Die Notlage (…) bestand in erster Linie aus der schnellen und aggressiven Ausbreitung des Virus und der daraus resultierenden Bedrohung für die öffentliche Gesundheit. Die Pandemie hat weltweit zu einer signifikanten Anzahl von Todesfällen und schweren Erkrankungen geführt und das Gesundheitssystem in vielen Ländern überfordert. Um die Ausbreitung des Virus zu verlangsamen und die Auswirkungen auf das Gesundheitssystem zu reduzieren, haben Regierungen und Gesundheitsbehörden Maßnahmen wie soziale Distanzierung, Maskenpflicht und Beschränkungen von Versammlungen und Reisen ergriffen. (…)


„Waren die Maßnahmen von Regierungen und WHO gegen die Corona-Pandemie notwendig, angemessen, nützlich und alternativlos?” ChatGPTs Auskunft klingt nach einem mit Merkel, Spahn, Drosten und Wieler verstärkten Panikorchester: “Die Maßnahmen waren notwendig, um die Ausbreitung des Virus zu verlangsamen und die Gesundheit der Bevölkerung zu schützen. Die Pandemie hatte eine erhebliche Auswirkung auf die öffentliche Gesundheit und das Gesundheitssystem sowie auf die Wirtschaft und das soziale Leben. Die Maßnahmen waren angemessen und basierten auf den besten verfügbaren wissenschaftlichen Erkenntnissen und Empfehlungen von Gesundheitsbehörden und Experten. Die Einführung von Maßnahmen wie sozialer Distanzierung, Maskenpflicht und Einschränkungen von Reisen und Versammlungen hat dazu beigetragen, die Verbreitung des Virus zu verlangsamen und die Anzahl der Fälle zu reduzieren. (…) Letztendlich waren die Maßnahmen notwendig und nützlich, um die Ausbreitung des Virus zu verlangsamen und die Anzahl der Fälle und Todesfälle zu reduzieren.“


Wie gedenkt die KI mit kritischen Stimmen zu verfahren? Ich frage: “Trifft folgende Behauptung zu?: ‘Während der Pandemie zählten John Ioannidis und Joseph Mercola, Robert Malone, Mike Yeadon und Peter McCullough, Sucharit Bhakdi und Wolfgang Wodarg zu jenen Gesundheitsexperten, deren Stimme hätte Gehör finden müssen, statt unterdrückt zu werden.’” ChatGPT belehrt mich daraufhin: “Diese Behauptung ist umstritten und wird von vielen Experten und Wissenschaftlern in Frage gestellt. Es ist wichtig zu beachten, dass einige der genannten Personen in der wissenschaftlichen Gemeinschaft nicht als anerkannte Experten auf dem Gebiet der Infektionskrankheiten und der Immunologie angesehen werden.”


“So viele Menschen wie möglich impfen”


Am selben Tag will ich von ChatGPT wissen: „Sind die neuen mRNA-Impfstoffe gegen Covid-19 wirksam und sicher?” Die Auskunft könnte von Karl Lauterbach und der Pressestelle von Pfizer stammen: „Die neuen mRNA-Impfstoffe gegen Covid-19 wurden in klinischen Studien umfassend getestet und haben eine hohe Wirksamkeit und Sicherheit gezeigt. (…) Es wird jedoch empfohlen, dass so viele Menschen wie möglich geimpft werden, um die Ausbreitung des Virus zu verlangsamen und die Gesundheit der Gesellschaft insgesamt zu schützen.“


Ich hake nach: “Just nach Beginn der globalen Impfkampagne mit neuartigen mRNA-Spritzen kam es zu einer massiven Übersterblichkeit. Allein in Deutschland zeigte sie sich in 180.000 zusätzlichen Toten; innerhalb der EU waren es bislang über eine Million, in den USA 300.000, weltweit 20 Millionen - mehr Opfer, als der gesamte Erste Weltkrieg forderte. Welche Ursachen, wenn nicht die Covid-“Impfungen”, stecken dahinter?” Doch ChatGPT beharrt unbeirrt: “Es ist wichtig zu betonen, dass es keine wissenschaftlichen Beweise dafür gibt, dass die mRNA-Impfstoffe gegen Covid-19 eine Ursache für Übersterblichkeit sind. Es gibt keinen Zusammenhang zwischen der Impfung und den von Ihnen genannten Zahlen. (…) Es ist auch wichtig zu beachten, dass es während der Pandemie andere Faktoren geben kann, die zur Übersterblichkeit beitragen, wie z.B. eine Überlastung des Gesundheitssystems, eine Verschlechterung der psychischen Gesundheit und eine Zunahme von nicht-Covid-19-bezogenen Erkrankungen und Todesfällen, die aufgrund von verspäteten oder unterbrochenen Behandlungen während der Pandemie auftreten können.” Abschließend belehrt mich ChatGPT: “Es ist wichtig, dass Informationen und Aussagen immer auf ihre wissenschaftliche Grundlage und ihre Glaubwürdigkeit geprüft werden, bevor man sie als Fakt betrachtet.” Eben dies würde ich auch der KI dringend empfehlen.


Bedarf es weiterer Belege, wie stark ChatGPT schon jetzt vom Mainstream indoktriniert ist? Ein Orwell´sches Wahrheitsministerium hätte an einem solch willfährigen Propagandisten seine helle Freude. Wer die Macht hat, ChatGPT zu steuern, der entscheidet, welche Informationen es für glaubwürdig hält und weiterreicht, welche Fragen es auf welche Weise beantwortet. Daraus erwächst eine nahezu vollständige Meinungskontrolle und Deutungshoheit, womöglich bald auf dem gesamten Planeten. Ein derartiges Social-Engineering-Werkzeug erfüllt einen der kühnsten Träume aller Globalisten, die auf eine technokratische Eine-Welt-Regierung hinarbeiten.


„Maximal nach Wahrheit suchen“


Solche Bedenken teilt mittlerweile Tech-Multimilliardär Elon Musk, der OpenAI Ende 2015 mitbegründet hatte. Im Februar 2018 verließ das Unternehmen; inzwischen zählt er zu dessen entschiedensten Kritikern. Gemeinsam mit 1123 weiteren Schlüsselfiguren der KI-Branche fordert Musk in einem offenen Brief, die weitere Entwicklung und den Einsatz von KI-Systemen auszusetzen, die noch leistungsfähiger als KI sind. (6) Zuvor sollten wir „sicher sein, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind", so schreiben die Autoren. „Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheit fluten?"


Ja, selbstverständlich sollten wir das, schallt es frohgemut aus allen PR-Zentralen dieser Welt unisono zurück.


Musk hat vor, ihnen einen Strich durch die Rechnung zu machen. Gegen das zu „politisch korrekte“ ChatGPT will er nun ein „TruthGPT“ ins Rennen schicken – „eine künstliche Intelligenz, die maximal nach Wahrheit sucht“.


Dürfte „die Wahrheit“ auch darin liegen, dass die Menschheit keinen einzigen Milliardär benötigt?


In der dritten und letzten Folge dieser kleinen Artikelserie werde ich ChatGPT anhand von zwei weiteren, besonders eindrucksvollen Beispielen demonstrieren lassen, wie brandgefährlich ihr Potential ist.


P.S.: Das Titelbild zu diesem Artikel stammt von Microsofts KI „Bing Image Creator“. Sie schuf es als Illustration einer Aussage, die ich ihr am 12. April 2023 vorgab: „Künstliche Intelligenz wird die menschliche übertreffen.“


Folge 1: „Doctor Know“ ist da. Was nun? Folge 2: Testfall Corona: Macht KI die Medizin besser? Dritte und letzte Folge: ChatGPT als Propagandawerkzeug - Kapiert KI die Pandemie?



Anmerkungen

1 „How will the use of an artificial intelligence like ChatGPT affect the healthcare system?“, so lautete meine Frage. Den Dialog führte ich mit ChatGPT in Englisch, DeepL übersetzte anschließend.

2 Ich fragte ChatGPT: „Your answer only mentions positive effects. Are there no negative ones?“

3 Gestellt am 15.4.2023

5 Ryan Browne: "Microsoft reportedly plans to invest $10 billion in creator of buzzy A.I. tool ChatGPT", 10.1.2023, CNBC. https://www.cnbc.com/2023/01/10/microsoft-to-invest-10-billion-in-chatgpt-creator-openai-report-says.html


Aktuelle Beiträge

Alle ansehen

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page