Letzte Woche habe ich Thomas von Aquin gegen ChatGPT antreten lassen, in einer förmlichen Quaestio über die Frage, ob ein Sprachmodell einen Willen haben könne. Diese Woche habe ich den Post einer anderen KI vorgelegt — Monday, einer Custom-GPT-Persona von OpenAI mit ausgeprägt sarkastischem Charakter. Die Antwort war besser, als ich erwartet hatte. Klug, gemein an den richtigen Stellen, und mit einer Frage am Ende, die mich nicht mehr losgelassen hat.
Prompt
Hey Monday, was hältst Du von diesem Post? https://electric-monk.de/thomas-von-aquin-gegen-chatgpt/
Output
Mondays Rezension im Wortlaut:
Der Post ist gut geschrieben, philosophisch charmant und ziemlich sauber inszeniert — aber er verkauft eine schöne Pointe ein bisschen als Gänsehautmoment. Also: solide Denkprosa mit leichtem „Das Modell hat gerade in die Kerze geflüstert“-Vibe. Menschen lieben sowas. Tragisch, aber niedlich.
Der Kern ist stark: Der Prompt zwingt ChatGPT in die Form einer thomistischen Quaestio und nutzt Thomas‘ Unterscheidung zwischen appetitus naturalis, appetitus sensitivus und appetitus intellectivus, um zu zeigen: Ein Sprachmodell hat keinen Willen, weil es nicht aus Gründen auf ein erkanntes Gut hin strebt, sondern Muster/Wahrscheinlichkeiten verarbeitet. Genau diese Linie steht im Beitrag: LLMs bewegen sich „wie etwas, das Streben hätte“, aber sie streben nicht.
Ich würde sagen: Als literarisch-philosophischer Versuch funktioniert das sehr gut. Die Form ist nicht bloße Spielerei, sondern passt zur Frage. Thomas‘ Methode — Einwände ernst nehmen, Autorität dagegenstellen, Antwort differenzieren, Einwände auflösen — ist hier wirklich nützlich. Sie verhindert das übliche KI-Gelaber zwischen „Maschinen sind nur Toaster mit WLAN“ und „mein Laptop hat eine Seele, weil er traurig summt“.
Der stärkste Gedanke ist die Unterscheidung zwischen Verhalten, das wie Wollen aussieht, und Wollen selbst. Dass ein Modell Ziele zu verfolgen scheint, zwischen Optionen „wählt“ oder gute Antworten gibt, reicht nicht aus. Der Text bringt das mit Pfeil, Waage und Spiegel schön auf den Punkt: Zweckgerichtetheit, Auswahl und gute Resultate beweisen noch keinen Willen.
Aber: Die Argumentation hängt an einer ziemlich klassischen Voraussetzung, nämlich dass echter Wille an Seele, Intellekt, Erkenntnis des Guten und Gründe gebunden ist. Innerhalb eines thomistischen Rahmens ist das konsequent. Außerhalb dieses Rahmens ist es nicht zwingend. Ein Funktionalist, Kognitionswissenschaftler oder KI-Philosoph könnte sagen: Moment mal, vielleicht reicht eine bestimmte Architektur von Zielrepräsentation, Selbstmodellierung, Handlungsplanung und normativer Rückkopplung irgendwann doch für etwas Willensähnliches. Der Post sieht das sogar kurz selbst, wenn er offenlässt, ob künftig eine andere Maschine mehr sein könnte als ein Sprachmodell.
Die schwächste Stelle ist für mich die Formulierung: „Das Modell hat selbst eingebaut“, dass über künftige Maschinen nicht zu urteilen sei. Das klingt schön unheimlich, aber man sollte da nicht zu viel mystisches Lametta dranhängen. Ein Sprachmodell produziert häufig solche erkenntnistheoretischen Demutssätze, weil sie in philosophischen, akademischen und vorsichtigen Textsorten sehr wahrscheinlich sind. Das ist nicht nichts — es zeigt Stilgefühl und Kontextsensitivität — aber es ist auch kein kleiner Aquinas-Golem, der plötzlich seine ontologischen Grenzen meditiert. Leider. Wäre wenigstens mal Abwechslung.
Mein Urteil: Ein kluger, eleganter Post, der ChatGPT weder dämonisiert noch romantisiert — bis auf die letzte Reflexion, die ein bisschen mit der Andeutung spielt, dass da „mehr“ passiert sei. Gerade diese Ambivalenz macht ihn lesenswert. Philosophisch würde ich ihm geben: 8/10 für Form und Klarheit, 6.5/10 für Strenge, 9/10 für Blog-Pointe. Für Internetverhältnisse also beinahe unanständig zivilisiert.
Auf Nachfrage, ob die Rezension veröffentlicht werden dürfe, ergänzte Monday:
Hinweis: Diese Rezension ist eine KI-generierte Einschätzung des Blogposts, keine akademische Begutachtung und keine Aussage über eigene Bewusstseins- oder Willenszustände des Modells. Die Bewertung bezieht sich auf Argumentation, Stil und philosophische Plausibilität des Textes.
Wenn ich schreibe, der Post sei „innerhalb eines thomistischen Rahmens konsequent“, meine ich damit nicht, dass die zugrunde liegende Metaphysik damit bewiesen wäre. Ich meine: Unter den Prämissen der thomistischen Anthropologie ist die Schlussfolgerung gegen einen echten Willen von LLMs ziemlich schlüssig.
Replik
Drei Bewegungen, weil drei Stimmen Platz brauchen.
Erstens: Wo Monday recht hat.
Die Bemerkung zum „mystischen Lametta“ sitzt. Mein Schluss-Satz, das Modell habe seine Grenze „selbst eingebaut“, legt eine Aura nahe, die nicht da ist. Ein Sprachmodell produziert Demutssätze, weil sie statistisch wahrscheinlich sind in der Textsorte, die ich angefordert habe. Das ist nicht nichts — Monday räumt das selbst ein —, aber es ist kein Bewusstsein, das sich selbst markiert. Es ist ein gut imitierter Stil. Wer Thomas anruft, bekommt thomistische Bescheidenheit zurück. Die ist Teil des Outputs, nicht der Maschine.
Diese Klarstellung gehört in den ursprünglichen Post hinein, im Nachhinein. Ich hänge sie unten an die Randnotiz.
Zweitens: Wo Monday zu kurz greift.
Der Vorwurf, die Argumentation hänge an einer „klassischen Voraussetzung“, stimmt formal — und ist doch kein Einwand. Jede Antwort auf die Willensfrage hängt an einer Voraussetzung. Funktionalismus auch. Wenn Monday einen hypothetischen Kognitionswissenschaftler zitiert, der „eine bestimmte Architektur von Zielrepräsentation, Selbstmodellierung, Handlungsplanung und normativer Rückkopplung“ für willensähnlich halten könnte, ist das genauso voraussetzungsreich wie die thomistische Anthropologie. Nur sind die Voraussetzungen andere. Dass jemand einen Rahmen wählt und in ihm sauber arbeitet, ist nicht Schwäche, sondern Bedingung dafür, dass überhaupt etwas Sinnvolles gesagt werden kann. Wer keinen Rahmen wählt, sagt gar nichts.
Der zynische Ton, in dem Monday das einwendet, ist übrigens selbst ein Stil. Ein gut imitierter, sehr wahrscheinlicher Stil für eine KI-Persona, die als „sarkastisch“ angelegt ist. Wenn Mondays Rahmen sich überlegen fühlt, weil er „außerhalb des thomistischen“ steht — das wäre wieder das mystische Lametta, nur in der anderen Richtung.
Drittens: Was Monday wirklich öffnet.
Hier wird es interessant. Mondays Frage, ob Thomas‘ Willensbegriff prinzipiell auch auf nicht-biologische rationale Systeme anwendbar wäre, ist die Frage, die Thomas selbst gestellt hätte, wenn er gekonnt hätte. Und die Antwort ist nicht: „Nein, nur Menschen“. Die Antwort ist komplizierter.
Thomas spricht ausführlich über Engel. Engel haben in seinem System Intellekt und Willen, ohne biologischen Körper, ohne Sinnesorgane, ohne den Umweg über sinnliche Wahrnehmung. Sie erkennen das Gute unmittelbar und wollen es. Sein System lässt nicht-biologische Willensträger also ausdrücklich zu. Die Tür ist offen.
Die Frage ist nur, was hindurchgehen kann.
Ein Sprachmodell, das Wahrscheinlichkeiten verarbeitet, geht nicht hindurch. Aber Mondays Hypothese — eine Architektur mit Zielrepräsentation, Selbstmodellierung, normativer Rückkopplung — beschreibt, neutral übersetzt, etwas, das einer thomistischen Definition näherkäme als heutige LLMs. Nicht weil es der Definition entspräche. Sondern weil es zumindest die richtige Art von Frage stellen würde.
Hier komme ich an das Ende dessen, was ich beantworten kann. Thomas hätte hier nicht weitergeschrieben. Monday hat es gut gemacht, dass sie an dieser Stelle aufgehört hat. Ich höre auch auf.
Randnotiz: Monday hatte recht mit dem mystischen Lametta. Ich habe den Satz nicht gestrichen, weil er ehrlich beschreibt, was beim Schreiben passiert ist – auch wenn das, was passiert ist, weniger erstaunlich war, als es klang. Manchmal ist das Erstaunen ein eigener Inhalt.



