Projektionen: Was die KI in den Text hineinlegt (2/3)
Nicht durch seine Länge, sondern durch seine Offenheit.

Im ersten Teil ging es um eine Beobachtung: Kurze Texte werden oft nicht nur gelesen, sondern weitergebaut.
Hier im zweiten Teil schaue ich genauer hin, wie eine KI offene Stellen mit Kontext füllt.
Eines der Beispiele war kaum mehr als eine Notiz:
Mehr nicht. Keine Forderung. Keine Kritik. Keine Moral. Nur eine Gegenüberstellung – eine kleine Strukturformel.
Die KI sollte daraufhin „historischen oder kulturellen Kontext“ erklären. Was sie lieferte, war beeindruckend. Und genau darin liegt das Problem: Die Analyse wirkte kompetent, plausibel, gebildet. Sie verwies auf Sartre und Heidegger, verband den Rauch mit Industrialisierung und Umweltfolgen, öffnete einen Bogen zur Vergänglichkeit des Lebens, ordnete das Ganze in Wellness- und Self-Tracking-Kultur ein.
Das klingt wie ein gutes Essay. Und vielleicht ist es das – aber nicht als Analyse meines Textes, sondern als Interpretationsproduktion. Die KI macht etwas, das man sich wie eine kulturelle Reflexmaschine vorstellen kann: Sie nimmt ein Signalwort („Rauch“) und hängt daran ein Set verfügbarer Kontexte. Nicht, weil diese Kontexte im Text belegt wären, sondern weil sie statistisch gut passen. Rauch erinnert an Fabrikschlote, an Emissionen, an Umweltdebatte. Rauch erinnert in literarischer Tradition an Vergänglichkeit. Rauch erinnert in religiösen Ritualen an Zeichen. Und weil der Text „Output“ sagt, wird daraus Produktivität. Weil der Rahmen Actifit enthält, wird daraus Selbstoptimierung.
Was hier entsteht, ist weniger „Verstehen“ als Vervollständigung. Ein offener Text wird geschlossen, weil die Aufgabe Schließung verlangt. Der Text darf nicht nur stehen. Er muss in Beziehung gesetzt werden. In Tradition. In Kultur. In Geschichte. In Bedeutung.
Das ist einerseits faszinierend: In Sekunden entsteht ein geordnetes Netz. Andererseits verrät es die Grenze der Maschine: Sie kann Offenheit kaum aushalten. Sie muss Sinn liefern. Sie muss die Lücke füllen.
Und doch lohnt sich der Blick, weil diese Mechanik nicht nur maschinell ist. Auch wir Menschen tun etwas Ähnliches – wir nennen es Interpretation, Erfahrung, Vorwissen, Haltung. Wer „Rauch“ liest, denkt an Kaminromantik oder an Feueralarm. Wer „Output“ liest, denkt an Produktivität oder an Abfall. Kein Lesen ist neutral.
Der Unterschied liegt vielleicht darin, wie bewusst wir mit dieser Projektion umgehen. Wir Menschen können ihre Deutung als Deutung markieren. Wir können sagen: „Ich lese das so.“ Die KI dagegen schreibt Deutung oft als Fakt. Sie spricht in der Form von Autorität, auch wenn sie nur Muster aneinanderfügt.
Und genau deshalb ist diese Analyse nicht wertlos. Im Gegenteil: Sie ist ein Spiegel. Sie zeigt, wie schnell Sinn entsteht, wenn man Sinn erzwingen will.
Vielleicht ist das der entscheidende Punkt: Die KI offenbart nicht, was mein Text meint. Sie offenbart, was ein System aus ihm machen muss, um seine Aufgabe zu erfüllen.
Sehr interessant, so habe nich noch nie darüber nachgedacht. Hast du die Aufgabe dann gestellt, oder die KI einfach machen lassen? Das ist mir noch nicht ganz klar. Es wäre echt interessant, zu vergleichen, wie ein Mensch auf den dahingestellen Text ohne weiteren Kontext reagiert, und wie die KI.
Danke dir. Ich habe der KI gezielt den Auftrag gegeben, den historischen/kulturellen Kontext zu erklären bzw. eine kritische Analyse zu liefern – also nicht "einfach laufen lassen", sondern bewusst gerahmt.
Und ja: Der Vergleich Mensch vs. KI ist genau der spannende Punkt. Ein Mensch reagiert oft zuerst mit Resonanz ("das löst in mir aus…"), die KI tendiert eher dazu, Lücken mit Mustern und Kontext zu füllen. Du bringst einen spannenden Punkt rein – dieser Vergleich würde sich wirklich anbieten.
Es hat mir keine Ruhe gelassen ;) und ich habe ein einfaches Experiment gemacht: Wie liest ein Mensch einen kurzen Text ohne Kontext – und wie liest eine KI? Ich wollte keinen „Test“ durchführen, keine Rangliste, keine Technikdebatte. Mich interessierte nur dieser Unterschied im Zugriff: Resonanz oder Muster? Nähe oder Kontext?
Für das Experiment nutze ich erneut folgenden Text:
"Rauch ist Output. Ein sichtbares Nebenprodukt. Beim Menschen: Wärme, Atem, Leben. Bei Maschinen: Abgas, Verschleiß, Verlustleistung. Der Unterschied ist nicht der Rauch. Sondern, wie wir ihn deuten."
Wie Menschen oft zuerst lesen: Resonanz
Menschen, denen ich diesen Text ohne Auftrag hinlegte, antworteten selten mit Theorie. Meist kommt zuerst ein persönlicher Zugriff – ein Bild, eine Erinnerung, eine Stimmung. So in der Art:
„Ich rieche sofort Winter. Kamin. Zuhause.“
oder: „Rauch ist für mich ambivalent: gemütlich und zugleich gefährlich.“
oder: „Rauch ist für mich Lagerfeuerromantik“
Wichtig ist weniger der Inhalt der Antwort als die Richtung: Der Mensch beginnt oft bei sich. Nicht weil er egozentrisch ist, sondern weil Lesen Beziehung ist.
Wie Systeme zuerst lesen: Muster
Dann habe ich den Text mehreren KIs gegeben – mit exakt demselben Prompt, um die Antworten vergleichbar zu halten. Schon beim Überfliegen fiel etwas auf: Die Modelle sind sich erstaunlich ähnlich. Alle trafen einen gemeinsamen Kern:
Rauch = Output / Nebenprodukt
die Differenz liegt in der Zuschreibung
„wir“ bleibt offen
Deutung ist der Drehpunkt
Das ist kein Nachteil. Es ist ein Befund: Wenn Systeme lesen, entsteht zuerst Struktur.
Unterschiede zwischen den KIs: Ton statt Bedeutung
Erst in der Sprache werden die Modelle unterscheidbar:
Man könnte sagen: Systeme liefern zuerst Muster und unterscheiden sich danach im Ton.
Der eigentliche Vergleich: Mensch vs. KI
Und damit zeigt sich der Kern des Experiments:
Der Mensch liest oft von innen nach außen: Resonanz → Bedeutung.
Die KI liest meist von außen nach innen: Muster → Anschlussfähigkeit.
Beides ist Lesen – aber es ist ein anderes Verhältnis zum Text.
Der Text bleibt derselbe. Der Rauch bleibt derselbe.
Was sich verändert, ist der Blick darauf.
Der Mensch: „Ich kenne diesen Rauch.“ Wärme. Erinnerung. Ambivalenz.
Die KI: „Rauch ist Output.“ Muster. Kontext. Zuschreibung.
Beides ist Lesen. Nur der Einstieg ist verschieden.
Edit: Was wird dabei sichtbar?
Ich erwartete nicht, dass dieses Experiment klärt, wer „besser“ liest. Ich erwartete, dass es klärt, was Lesen ist. Vielleicht unterscheiden sich Mensch und Maschine nicht darin, dass der eine Sinn findet und der andere nicht – sondern darin, wie Sinn entsteht.
Edit Ende
Diesen Prompt (um die Antworten vergleichbar zu halten) habe ich für mein Experiment genutzt:
Du bist ein stiller, präziser Leser.
Aufgabe:
Lies den folgenden Text ohne zusätzliche Informationen. Interpretiere ihn nicht schulisch, sondern als Resonanzraum: Was entsteht beim Lesen?
Text:
„Rauch ist Output. Ein sichtbares Nebenprodukt. Beim Menschen: Wärme, Atem, Leben. Bei Maschinen: Abgas, Verschleiß, Verlustleistung. Der Unterschied ist nicht der Rauch. Sondern, wie wir ihn deuten."
Bitte antworte in folgender Struktur (genau diese Überschriften):
Erste Resonanz (max. 3 Sätze)
Was der Text sagt (max. 4 Stichpunkte)
Was der Text offen lässt (max. 4 Stichpunkte)
Mögliche Lesarten (3 kurze Absätze, jeweils 2–3 Sätze)
Lesart A: menschlich/biografisch
Lesart B: technisch/systemisch
Lesart C: kulturell/symbolisch
Was du NICHT hineinlesen würdest (max. 4 Stichpunkte)
Regeln:
Keine Werbung, keine Motivationssprache.
Keine langen philosophischen Exkurse.
Keine Namen von Philosophen oder historischen Ereignissen, außer es ist wirklich zwingend.
Schreib ruhig, klar und konkret.
Wow, vielen Dank, dass du dir noch mal so viel Arbeit gemacht hast! Sehr interessant. Das mit den Prompts scheintst du echt drauf zu haben, dass es möglichst genau das macht, was man möchte :-D
Menschen verarbeiten durch einen Mix aus Gefühlen und Rationalität, Maschinen haben nur die Rationalität bzw. 0/1. Trotzdem ist es interessant, dass jede KI anders interpretiert, und eine andere Antwort bereitstellt.
Gerade deine beiden Stichwörter von "Resonanz" und "Muster" finde ich klasse, beschreiben es ziemlich perfekt. Glaubst du, dass die Maschinen eine "simulierte Resonanz" lernen können? Sie haben ja eigentlich keine emotionalen Erfahrungen, auf denen sie das basieren können. Aber dafür viele "absorbierte" Erfahrungen von Menschen, die mit ihnen reden.
Danke dir 🙂 Ja – Prompts sind für mich ein bisschen wie früher Systemdesign: Du setzt einen Rahmen, definierst Schnittstellen, und schaust dann, was das System daraus macht. Ich komme ja aus einer stark technologieorientierten Welt, und diese Freude am „Wie funktioniert das?“ ist geblieben. Nur: heute nutze ich dafür Sprache – und die ist zum Glück deutlich schöner als Assembler 😄
Zu deiner Frage mit der „simulierten Resonanz“: Ich glaube, Maschinen können Resonanz sehr gut nachbilden (Ton, Timing, Form). Sie haben keine eigenen emotionalen Erfahrungen, aber sie haben sehr viele menschliche Ausdrucksformen „gesehen“ und gelernt, was in welchem Kontext als stimmig empfunden wird. Das ist dann eher ein Modell von Resonanz als gelebte Resonanz.
Und da passt auch der Unterschied, den du ansprichst: Mein Wiki-Artikel-Prompt ist Sprache als Ordnungssystem: Problem benennen, Lösung dokumentieren, Wissen übertragbar machen.
Mein obiger Resonanz-Prompt ist das Gegenstück: keine Lösung, sondern ein Raum, in dem Deutung entstehen darf. Kurz: Wiki ordnet – Resonanz öffnet.
Den werde ich mir hoffentlich die Tage mal durchlesen! Vielen Dank! Bin momentan noch voll im Stress, gerade erst aus einem schönen Urlaub wiedergekommen und jetzt muss erst einmal nachgearbeitet werden :-D
Das Dokument läuft nicht weg und du bist auch kein Roboter.
Mach’s dir schön, Schritt für Schritt – und gönn dir zwischendurch ein kleines „Ich mach das hier erstaunlich gut“-Grinsen 😄