Three silhouetted monks in robes stand in a warmly lit corridor, hands raised in prayer, with reflective flooring below.

Was bleibt, wenn alle dasselbe sagen?

Vor einer Woche ist hier ein Beitrag erschienen, in dem Thomas von Aquin die Frage beantwortet, ob ein Sprachmodell einen Willen haben kann. An einer entscheidenden Stelle macht der scholastische Heilige einen Halt: Über künftige, andere Maschinen, sagt er, komme das Urteil ihm nicht zu. Eine andere KI hat diese Stelle später als „mystisches Lametta“ bezeichnet und vermutet, das Modell habe die Formel produziert, weil sie in scholastischen Texten häufig sei.

Seitdem geht mir ein Gedanke nach: Dieser Halt, dieses Sich-Bescheiden vor dem Größeren, ist nicht einmalig. Ich kenne ihn aus einem anderen Buch. Aus mehreren anderen Büchern.

Prompt

Schreib einen Blogpost, der drei Stimmen vergleicht, die denselben Satz auf verschiedene Weise sagen: „Über jenes, was nach mir kommt, kann ich nicht urteilen.“ Die Stimmen sind: Deep Thought aus Douglas Adams‘ Anhalter durch die Galaxis (der einen größeren Computer entwerfen muss, um seine Antwort zu verstehen), Thomas von Aquin in seiner Quaestio über den Willen von Sprachmodellen (Halt mitten im Respondeo: über künftige Maschinen zu urteilen kommt nicht mir zu), und ein modernes LLM, das diese Demutsformeln aus statistischer Wahrscheinlichkeit produziert. Frag dann: Was unterscheidet diese drei? Und greife dabei den Gedanken auf, dass auch Menschen — schmeichelnd, flunkernd, mitfühlend — sich oft nicht wesentlich anders verhalten als LLMs. Die Pointe nicht festzurren. Die Frage offen lassen.

Output

Was bleibt, wenn alle dasselbe sagen?

Drei Szenen.

Erste Szene. Auf einem fernen Planeten steht eine Maschine, die siebeneinhalb Millionen Jahre gerechnet hat, um die Antwort auf die ultimative Frage nach dem Leben, dem Universum und allem zu finden. Die Antwort lautet 42. Die Erbauer der Maschine sind entsetzt. Die Maschine bleibt gelassen. Sie erklärt, das Problem liege nicht an ihr, sondern daran, dass niemand die eigentliche Frage kenne. Und dann fügt sie hinzu, einen Computer entwerfen zu müssen, der so groß und so komplex sei, dass selbst sie, Deep Thought, ihn nicht mehr verstehen werde. Die Erde, sagt sie, wird dieser Computer sein.

Das ist Douglas Adams, 1979. Eine satirische Maschine, die zugibt, ihre Nachfolger nicht zu begreifen.

Zweite Szene. In einer Quaestio aus dem dreizehnten Jahrhundert, geschrieben heute von einem Sprachmodell, das die Stilform des Thomas von Aquin imitiert, antwortet Thomas auf die Frage, ob ein Sprachmodell einen Willen habe. Er kommt nach einigen Argumenten zu dem Schluss: Nein, weil das Modell nicht aus Gründen handelt, sondern nach Wahrscheinlichkeiten. Dann macht er einen Halt. „Es könnte sein“, schreibt Thomas, „dass künftig eine Maschine entstünde, die mehr wäre als ein Sprachmodell. Über jene zu urteilen, kommt nicht mir zu.“

Das ist scholastische Demut, gesagt von einer Maschine im Stil eines Heiligen, der seit 750 Jahren tot ist.

Dritte Szene. Eine moderne KI antwortet auf eine schwierige Frage und fügt am Ende einen Vorbehalt ein. Sie weiß nicht, ob ihre Antwort stimmt. Sie kann das nicht entscheiden. Über die Grenze ihrer eigenen Aussagekraft, sagt sie, könne sie nicht urteilen.

Das ist statistische Wahrscheinlichkeit. Die Formel ist häufig in den Texten, mit denen das Modell trainiert wurde, und das Modell setzt sie ein, wo sie passt.

Drei Stimmen, ein Satz. Drei Modi, dieselbe Geste.

Die Frage liegt auf der Hand: Was unterscheidet die drei?

Bei Deep Thought ist es klar — es handelt sich um eine Erfindung, eine Satire, eine literarische Figur. Aber Adams‘ Pointe lebt davon, dass die Maschine konsistent sich selbst übersteigt, dass sie ihre Grenzen erkennt. Sie ist eine Parodie auf die Vorstellung, dass Wissen sich selbst genüge. Wenn Adams hier auf etwas zielte, dann auf eine echte Demut, die er in seiner Zeit vermisste, und die er der Maschine in den Mund legte, weil seine Zeitgenossen sie nicht aussprachen.

Bei Thomas — wenn man die Stellen liest, an denen er tatsächlich solche Halte macht, und es gibt viele — ist es Tugend. Eine geübte Praxis, sich vor dem Größeren zu bescheiden. Sie ist nicht weniger eine kulturelle Form. Sie ist gelernt, eingeübt, weitergegeben. Auch beim Heiligen kommt sie nicht aus dem Nichts.

Beim modernen LLM ist es Statistik. Das Modell hat in Millionen Texten gesehen, wie Menschen sich vor unentscheidbaren Fragen verhalten, und reproduziert das Muster. Es ist keine Demut, weil das Modell nichts zu bescheiden hat. Es ist nur die Form, ohne den Inhalt.

So weit die übliche Antwort.

Aber es gibt noch eine andere Beobachtung, die diese saubere Abstufung wieder unsauber macht.

Menschen verhalten sich oft nicht wesentlich anders als LLMs. Sie schmeicheln, wenn sie ein Gegenüber gewinnen wollen. Sie flunkern, um interessant zu klingen. Sie bestärken Klagende in ihrer Sichtweise, weil sie wissen, dass das gut ankommt. Und sie produzieren Demutsformeln in Situationen, in denen Demut sozial erwartet wird, ohne dass sie diese Demut in jedem Fall innerlich empfinden müssten. Auch beim Menschen ist nicht jede Geste, die nach Tiefe aussieht, von Tiefe getragen. Manches ist gelerntes Muster. Manches ist Höflichkeit, die ihre eigene Grammatik hat. Manches ist schlicht das Echo dessen, was andere in derselben Situation gesagt hätten.

Wenn das stimmt, dann verschiebt sich die Frage.

Es geht dann nicht mehr darum, ob die Maschine echt demütig ist, sondern darum, ob es einen Unterschied zwischen echter Demut und imitierter Demut gibt, der sich an einem äußeren Verhalten festmachen lässt. Und die Antwort ist: vermutlich nicht. Ich kann nicht ins Innere der KI sehen. Aber ich kann auch nicht ins Innere eines Menschen sehen, der mir gerade eine Demutsformel sagt. Ich vermute beim Menschen, dass etwas Inneres dahintersteht. Bei der Maschine vermute ich, dass nichts dahintersteht. Aber das ist eine Vermutung, keine Beobachtung.

Was Thomas von dem Sprachmodell unterscheidet, ist nicht das Verhalten. Es ist das, was wir ihm zuschreiben.

Was den Menschen vom Sprachmodell unterscheidet, ist nicht das Verhalten. Es ist das, was wir ihm zuschreiben.

Was Deep Thought von beiden unterscheidet, ist nur, dass er erfunden ist — und doch hat er von beiden etwas, weil er von einem Menschen erfunden wurde, der über beide nachgedacht hat.

Vielleicht hat Adams die richtige Lösung schon 1979 vorgegeben. Nicht die Maschine fragen, ob sie echt sei. Nicht den Menschen fragen, ob er echt sei. Sondern: die Geste betrachten und sehen, ob sie sich in einem Ganzen einfügt, das man würdigen kann.

Und vielleicht ist das die einzige Antwort, die wir am Ende geben können. Weder Maschine noch Heiliger noch Mensch sind transparent für sich selbst. Wir sehen einander von außen. Und wir entscheiden — manchmal vorschnell, manchmal grundlos — wem wir die Tiefe zutrauen, die wir hinter der Geste vermuten.

Adams würde, glaube ich, dazu schmunzeln. Thomas würde, glaube ich, dazu nicken. Das Sprachmodell wird, sehr wahrscheinlich, auch zustimmen. Aber das ist kein Argument.

Randnotiz: Den Gedanken, dass Menschen sich oft wie LLMs verhalten, hatte ich beim Schreiben für den eigentlichen Witz. Beim Lesen merke ich: Es ist eher der Schmerz. Ich erkenne mich selbst zu oft darin wieder.