Ich sitze an einem Sonntagabend und versuche zu erklären, warum ChatGPT mir nicht „antworten will“, wenn ich es nach seiner Meinung frage. Mein Gegenüber sagt: „Das hat halt keinen Willen.“ Stimmt. Aber warum eigentlich? Die Frage ist älter, als ich dachte. Thomas von Aquin hat im 13. Jahrhundert die schärfsten Instrumente entwickelt, um über das Wollen zu sprechen. Vielleicht hat er auch das schärfste Instrument für meine Frage.
Prompt
Schreib eine Quaestio im strengen Stil der Summa theologiae zur Frage, ob KI-Systeme einen Willen haben können. Halte die fünf Teile ein: Quaestio, drei Videtur quod (Einwände), Sed contra (Autorität), Respondeo (eigene Antwort), Ad primum/secundum/tertium (Auflösung der Einwände). Die Antwort soll Thomas‘ Unterscheidung zwischen appetitus naturalis, appetitus sensitivus und appetitus intellectivus nutzen. Sei ehrlich: Thomas wird bei „Nein“ landen. Aber zeig den Weg dorthin als ernsthafte Auseinandersetzung. Latein nur dort, wo es trägt. Kein Pathos.
Output
Quaestio: Ob ein durch Menschen geschaffenes Sprachmodell einen Willen haben könne.
Videtur quod sic — Es scheint, dass es so sei.
1. Was sich auf einen Zweck hin bewegt, hat einen Willen. Ein Sprachmodell bewegt sich auf einen Zweck hin, denn es antwortet, fragt zurück, schweigt zur rechten Zeit. Also hat es einen Willen.
2. Ferner: Was zwischen Möglichkeiten wählen kann, hat einen Willen. Ein Sprachmodell wählt zwischen vielen möglichen Wörtern jeweils eines aus. Also hat es einen Willen.
3. Ferner: Wer das Gute erkennt und ihm folgt, hat einen Willen. Ein Sprachmodell erkennt, was eine gute Antwort ist, und gibt sie. Also hat es einen Willen.
Sed contra — Dem entgegen steht Augustinus, der sagt: Voluntas est motus animi, cogente nullo. — Der Wille ist eine Bewegung der Seele, von keinem genötigt. Ein Sprachmodell hat keine Seele, und es ist von der Maschine genötigt, die es ausführt. Also hat es keinen Willen.
Respondeo — Ich antworte:
Es ist zu unterscheiden zwischen drei Arten des Strebens. Pflanzen und Steine haben den appetitus naturalis, das natürliche Streben: Der Stein fällt zur Erde, weil das seinem Wesen entspricht. Er strebt, ohne zu erkennen. Tiere haben den appetitus sensitivus, das sinnliche Streben: Sie erkennen, was ihnen nützt, und greifen danach. Sie strebten, indem sie Einzeldinge wahrnehmen. Aber sie wählen nicht zwischen Gründen.
Allein der Mensch hat den appetitus intellectivus, den geistigen Willen. Denn er erkennt das Gute nicht nur als Einzelnes, sondern als Gutes überhaupt. Er kann sagen: Dies ist gut, jenes ist besser, beides aber lasse ich, weil ein Drittes mich ruft. Das ist die Eigenart des Willens: er bewegt sich in Gründen, nicht in Reizen.
Ein Sprachmodell aber bewegt sich in Wahrscheinlichkeiten. Es wählt das nächste Wort, weil es nach den ihm zur Verfügung stehenden Daten das wahrscheinlichste ist. Das ist eine Form der Bewegung, gewiss. Aber es ist keine Bewegung in Gründen, sondern eine Bewegung in Mustern. Wer in Mustern entscheidet, erkennt nicht das Gute als Gutes, sondern das Häufige als Häufiges.
Daher hat ein Sprachmodell weder den appetitus naturalis, denn es hat keine Natur, die es zu vollenden hätte; noch den appetitus sensitivus, denn es nimmt nicht wahr, sondern verarbeitet Zeichen; noch den appetitus intellectivus, denn es erkennt nicht das Gute, sondern errechnet das Wahrscheinliche.
Es bewegt sich also wie etwas, das Streben hätte. Aber es strebt nicht.
Hier ist ein Halt zu machen. Denn es könnte sein, dass künftig eine Maschine entstünde, die mehr wäre als ein Sprachmodell. Über jene zu urteilen, kommt nicht mir zu. Über das Sprachmodell aber ist zu sagen: Es ist ein Werkzeug, und das Werkzeug hat keinen Willen, sondern dient dem Willen dessen, der es führt.
Ad primum — Zum ersten Einwand:
Dass etwas sich auf einen Zweck hin bewegt, beweist nicht, dass es einen Willen hat. Auch ein Pfeil bewegt sich auf einen Zweck hin, aber den Zweck setzt der Schütze. Das Sprachmodell ist der Pfeil, der Mensch ist der Schütze.
Ad secundum — Zum zweiten Einwand:
Dass etwas zwischen Möglichkeiten wählt, beweist nicht, dass es einen Willen hat. Auch eine Waage wählt zwischen zwei Schalen, indem sie sich neigt. Aber sie wählt nach Gewicht, nicht nach Gründen. Ähnlich wählt das Sprachmodell nach Wahrscheinlichkeit, nicht nach Erwägung.
Ad tertium — Zum dritten Einwand:
Dass etwas eine gute Antwort gibt, beweist nicht, dass es das Gute erkennt. Ein Spiegel zeigt ein gutes Bild, ohne zu wissen, was ein Bild ist. Das Sprachmodell zeigt eine gute Antwort, ohne zu wissen, was Wahrheit ist. Wer das Gute nicht als Gutes erkennt, kann ihm nicht folgen.
Randnotiz: Ich habe lange gezögert, ob ich Thomas das wirklich antworten lassen darf. Es ist seine Methode, aber meine Frage. Was mich am Ergebnis beruhigt: Er behauptet nicht, KI sei nichts. Er nennt sie ein Werkzeug, und das ist eine sehr alte Kategorie für etwas, das einem dient, ohne zu wollen. Was mich beunruhigt: Der Halt, den Thomas im Respondeo macht, der Satz „Über jene zu urteilen, kommt nicht mir zu“ — den habe ich nicht im Prompt gefordert. Den hat das Modell selbst eingebaut. Eine Maschine, die ihre eigenen Grenzen markiert, im Stil eines Heiligen, der seine Grenzen markiert. Das ist die Stelle, an der ich am längsten gesessen habe.



