Zum Hauptinhalt springen

Grenzen der Machbarkeit?

Künstliche Intelligenz kann mittlerweile unfassbar viel. Sie erleichtert an vielen Stellen Arbeit, spart Zeit ein. Wer sich länger mit Tools wie ChatGPT befasst, wird merken, dass die KI in ihren Formulierungen auf die immer gleichen Phrasen setzt und wie sie sich von Menschen geschriebenen Worten unterscheidet. Auch Bilder kann die KI mittlerweile (fast) täuschend echt erstellen - aber auch hier zeigen sich die Grenzen auf. Das untenstehende Bild hat die KI zu Mariä Himmelfahrt erzeugt. Grund genug, P. Anselm Grün aus spiritueller und Br. Ansgar Stüfe aus wissenschaftlich/medizinischer Sicht zu fragen, wie sie darüber denken - ein etwas anderer Beitrag zum Hochfest, der zum Nachdenken über die Grenzen der Machbarkeit und des Vorstellbaren anregen kann.

Bei jeder Entwicklung einer neuen Technik gilt das Wort des Apostels Paulus: „Prüft alles und behaltet das Gute!“ (1 Thess 5,21) Soweit ich sehe, kann die künstliche Intelligenz uns viele Arbeiten abnehmen, die eine gewisse Routine beinhalten. Sie kann uns helfen, große Datenmengen zu verarbeiten. Doch diese Art von Intelligenz nennt man schwache künstliche Intelligenz. Die starke künstliche Intelligenz dagegen versucht, die menschliche Intelligenz nachzuahmen und kreativ zu sein.

Die neueste Errungenschaft der künstlichen Intelligenz ist Chat-GPT. Da wird einem jede Frage sofort beantwortet. Doch viele merken gar nicht, wie sie sich von den Errungenschaften der modernen Technik bestimmen lassen. Der Philosoph Harry Frankfurt meint, Chat-GPT hätte die „Fähigkeit, zu überzeugen, ohne sich um die Wahrheit zu scheren“. (SZ vom 21.3.23) Die Antworten wirken überzeugend, aber sie stimmen oft nicht. Und viele merken es gar nicht, dass Chat-GPT dazu benutzt wird, „um Bullshit zu automatisieren“, wie der Informatiker Sayash Kapoor bei seinen Forschungen festgestellt hat. (SZ 21.3.23) Die Gefahr von Chat-GPT besteht darin, sich mit überzeugend klingenden Antworten zufrieden zu geben, ohne zu merken, dass sie völlig falsch sind. Man verzichtet darauf, den Dingen auf den Grund zu gehen.

Zurzeit ringen viele Politiker und Ethiker, um Regeln zu erarbeiten, die für die künstliche Intelligenz gelten sollen. Denn viele sehen darin die Gefahr, dass man in Zukunft die Wahrheit nicht mehr von Fake-News unterscheiden kann, dass daher viele Menschen nur den Meinungen hinterherlaufen, aber die Suche nach der Wahrheit aufgeben. Das würde aber der menschlichen Würde widersprechen. Denn seit jeher haben Philosophen und Theologen, aber auch Naturwissenschaftler nach der Wahrheit geforscht. Die Wahrheit besteht nicht in Darlegungen, die überzeugend klingen. Wahrheit stellt vielmehr die Wirklichkeit so dar, wie sie ist. Und es gibt noch eine tiefere Dimension der Wahrheit. Das griechische Wort für Wahrheit „aletheia“ meint, dass der Schleier weggezogen wird, der über der Wirklichkeit liegt, so dass wir das Wesen erkennen, dass wir tiefer schauen, auf den Grund sehen. Martin Heidegger übersetzt „aletheia“ mit Unverborgenheit des Seins.

Es gehört zur menschlichen Würde, immer nach der Wahrheit zu suchen. Dabei müssen wir uns immer wieder daran erinnern, dass wir die Wahrheit nur erahnen können. Gott ist die eigentliche Wahrheit. Und er ist jenseits aller Bilder und Worte. Aber unsere Worte sollen offen sein für diese Wahrheit. Wenn wir meinen, unsere Worte würden die Wirklichkeit beliebig festlegen, so wie wir sie gerne möchten, dann entsteht das, was die Bibel zu Beginn als die babylonische Sprachverwirrung schildert. Dann gibt es viele Worte. Aber wir können uns nicht mehr wirklich verständigen. Das aber wäre ein Verlust nicht nur der menschlichen Würde, sondern auch eine Gefährdung menschlicher Gemeinschaft.

Daher sollten wir die Mahnung des hl. Paulus berücksichtigen. Wir können die Entwicklung der künstlichen Intelligenz nicht einfach stoppen. Aber wir sollten achtsam und verantwortungsvoll damit umgehen, damit nicht mehr Schaden als Nutzen daraus entstehen wird.

Von P. Anselm Grün

 

 

Wie sich die KI Mariä Himmelfahrt vorstellt

Neue Möglichkeiten faszinieren und öffnen bisher verschlossene Türen. In der Medizin stehen junge Ärzte oft hilflos vor Patienten, die unklare Beschwerden haben. Erst nach vielen Jahren werden sie auch einige Patienten gesehen haben, die seltene Symptome einer bestimmten Erkrankung hatten. Diese erkennen sie dann aus eigener Erfahrung. Zum Beispiel gibt es beim Herzinfarkt Beschwerden, die so gar nicht zu dieser Krankheit passen, sondern eher Gelenkbeschwerden oder Rückenschmerzen ähneln. So versuchte man schon seit langem, über künstliche Intelligenz diesen Mangel an Erfahrung junger Ärztinnen und Ärzte auszugleichen. Wenn der junge Arzt oder Ärztin sich unsicher sind, könnten die Krankheitszeichen in das Programm eingegeben werden und eine Diagnose gestellt werden. Das klingt eigentlich phantastisch und es fragt sich, ob es dann eigentlich den ärztlichen Beruf überhaupt noch geben muss. Schließlich kann ja jeder seine Beschwerden in den Computer eingeben und nach der Diagnose fragen. Eventuell wird dann auch noch die Behandlung ausgegeben und die Medikamente aus der Apotheke geliefert.

Ich kann nicht einschätzen, ob so eine Vorgehensweise realistisch oder eher utopisch ist. Beim jetzigen Wissensstand ist die künstliche Intelligenz aber noch nicht so weit gekommen. Auch bei der riesigen Datenmenge, die einem Programm zur Verfügung steht, ergeben sich keine eindeutigen Ergebnisse. Ja, gerade bei der großen Menge an Symptomen im Gedächtnis des Programms, verliert sich die Eindeutigkeit. Als Folge werden dann mehrere Diagnosen geliefert. Das hilft dann eben gar nicht weiter, weil diese Situation bei einer jungen Ärztin sowieso vorliegt. Es geht eher mit Wahrscheinlichkeiten. Die Frage muss eingeschränkt werden und die Ärztin kann zum Beispiele fragen, wie wahrscheinlich bei diesen Symptomen ein Herzinfarkt auszuschließen ist. Dazu muss sie aber erst einmal wissen, dass diese Symptome bei dieser Krankheit auftauchen können.

Verglichen mit dem auch heute noch benötigten Wissen ist die künstliche Intelligenz nur ein kleiner Fortschritt. Obwohl dieses Beispiel zeigt, dass die künstliche Intelligenz in der Medizin deutliche Grenzen hat, werden viele Maßnahmen trotzdem durch vorgegebenen Schemata vollzogen. Werden bestimmte Krankheiten vermutet, geben die Programme bestimmte Untersuchungen und Behandlungen vor. Es ist üblich geworden, sogenannte Standards der Diagnostik und der Behandlung festzulegen. Das stimmt zwar in einer hohen Prozentzahl, schließt aber die Ausnahmen nicht genügend ein. Im Alltag verstärkt also dieses Programm genau das Problem der Unerfahrenheit anstatt es zu beseitigen. Verstärkt wird das Problem durch die Unsicherheit junger Ärzte. Sie verlassen sich lieber auf ein Computerprogramm als selbstverantwortlich zu eigener Erkenntnis zu stehen. Hier liegt eine große Gefahr für unser gesamtes Gesundheitssystem.

Weniger problematisch scheint die KI auf dem Gebiet der Textverarbeitung zu sein. Es gibt sehr gute Programme zur Übersetzung in Fremdsprachen und zu Stilvarianten, wenn einem der eignen Satz nicht gefällt. Umstrittener wird es, wenn man zu Erstellung von Reden oder gar Veröffentlichungen Stichworte eingeben kann und dann fertige Texte geliefert werden. Hier könnte Originalität und geistiges Eigentum verloren gehen. Einerseits werden solche Formen schon sehr genutzt, aber meistens noch nicht erkannt. Die Nutzung solcher Systeme ist bequem und die Versuchung ist groß, schnell einen Vortrag abzuschreiben als einen eigenen zu verfassen.

Diese Beispiele zeigen ein spannendes Bild der künstlichen Intelligenz. Sie hat unser Alltagsleben bereits erfasst. Jetzt kommt es darauf an, damit umgehen zu lernen. Daher gilt wie P. Anselm Grün vom Apostel Paulus zitiert: „Prüfe alles und behalte das Gute“. Zumindest haben wir beide, P. Anselm und Br. Ansgar, diesen Satz als Zitat gekennzeichnet und nicht per KI umgeformt oder es als unsere eigenen Gedanken ausgegeben.

Von Br. Ansgar Stüfe

Grenzen der Machbarkeit - Buch von P. Anselm und Br. Ansgar

Unter diesem Titel erschien im Frühjahr 2022 ein Buch von den beiden Mönchen. Sie schreiben über den entgrenzten Menschen und auch die Gefahren der Beherrschbarkeit. 

Der Mythos des Prometheus ist sehr bekannt – nicht zuletzt durch Johann Wolfgang von Goethe und zahlreichen modernen Interpretationen in der Film- und Buchwelt. Übertragen auf unsere Gesellschaft spiegelt der Mythos die Illusion eines „entgrenzten“ Menschen wider, der sich die Erde untertan macht. Allem voran die Corona-Pandemie hat uns jedoch deutlich vor Augen geführt, dass alle Pläne, die Natur und den Menschen zu beherrschen, nicht aufgehen.

Die beiden Autoren machen sich in diesem Buch auf, die Geschichte des Prometheus darauf zu untersuchen, was sie uns gerade heute an wesentlichen Einsichten über unseren Umgang mit uns selbst und mit der Welt in spiritueller, aber auch in medizinisch-wissenschaftlicher Hinsicht vermitteln kann.