KI kann Daten verarbeiten, Muster erkennen und Texte erzeugen. Aber kann sie auch wirklich mit uns „reden“? In unserem ersten Beitrag hat Gastautor Luca Neuperti gezeigt, was KI ist – und was nicht. Nun geht er einen Schritt weiter: Er stellt die Frage, wie menschliche Konversation funktioniert und in welchem Maß KI diese nachahmen kann.
Wir laden Sie ein, mit ihm zu erkunden, wo die Grenzen zwischen technischer Simulation und echter zwischenmenschlicher Kommunikation verlaufen – und was das für Organisationen bedeutet.
CAPTCHA geschafft – aber kann KI jetzt auch Smalltalk?
Bevor Sie diesen Beitrag lesen können, müssen sie unten einmal kurz bestätigen, dass Sie auch ein Mensch sind.

Okay, dem Format geschuldet muss ich Ihnen da wohl mal vertrauen. Aber zumindest ich sehe solche „Ich bin kein Roboter“-Tests im Internet immer häufiger. Sie heißen CAPTCHA-Tests (Completely Automated Public Turing test to tell Computers and Humans Apart) und sollen Mensch und Maschine möglichst gut unterscheiden. Aber mal ehrlich: Wissen Sie, ob der Mast jetzt mit zur Ampel gehört oder wo der Zebrastreifen wirklich seine Grenzen hat? Und gibt es nicht vielleicht noch andere Alleinstellungsmerkmale des Menschen außer einigermaßen gut Ampeln erkennen zu können?
Was ist denn mit Kommunikation? Klar, Chatbots werden immer beliebter, aber kann ihre Kommunikationsfähigkeit mit der von Menschen standhalten? Das habe ich mich auch in meiner Bachelor Thesis Informatik gefragt und deshalb untersucht: Kann KI Konversation?
Um diese Frage zu beantworten, müssen wir eigentlich drei Fragen beantworten:
- Wie kommunizieren Menschen? (Meine Mitstudis aus der Informatik haben mich gebeten, ihnen Bescheid zu geben, wenn ich das herausgefunden habe)
- Wie kommunizieren Chatbots?
- Und erst dann können wir die Frage beantworten: Kommunizieren Chatbots menschlich?
Wie Katzen unser Gehirn steuern
Also, wie kommunizieren Menschen? Wenn zwei oder mehr Personen miteinander reden, laufen still und heimlich eine Reihe hochkomplexer Prozesse ab. Eine Theorie, die dabei hilft, sie zu verstehen, ist die Communication Accommodation Theory – kurz CAT. Und wegen dieser Abkürzung darf ich in diesem Beitrag zur Erklärung hochoffiziell Katzen nutzen (eine alternative Erklärung mit CAT-Baggern wirkte einfach nicht so ansprechend). Also: Wie kommunizieren Menschen – erklärt mit Katzen!
Die Schmusekatze Konvergenz
Ein fiktionales Kommunikationsbeispiel: ich auf einem Date. Ich habe das untenstehend mal illustriert. Dort bin ich also (links im Bild) und neben mir ist dann noch eine andere Person (so wurde mir das zumindest erklärt).In unserer Interaktion kann man jetzt ein paar spannende Eigenarten feststellen: Wenn ich schneller rede, redet mein Date auch schneller. Wenn sie einen bestimmten Akzent hat, fange ich vielleicht auch an, anders zu reden. Und wenn sie z.B. statt „Arzt“ lieber „Doktor“ sagt, fange ich auch unbewusst an, „Doktor“ zu nutzen. Man merkt: Wir gleichen uns auf ganz vielen kommunikativen Ebenen automatisch aneinander an und dafür ist eine Schmusekatze verantwortlich: Die Konvergenz. Die will einfach nur gemocht und verstanden werden und deshalb gleichen wir uns laut CAT in Interaktionen automatisch an. Sie möchte nicht nur verstanden, sondern auch gemocht werden und beides funktioniert besser, wenn man sich in der Kommunikation ans Gegenüber anpasst.

Die fleißige Reparaturkatze
Ein weiteres Beispiel – diesmal aus meiner Heimatstadt Frankfurt, wo ich letztens mit meinem Vater gesprochen habe. Als ich ihm gesagt habe, dass ich ein riesiger Eintracht-Fan bin, dachte mein Vater aus irgendeinem Grund an die Fußballmannschaft „Eintracht Frankfurt“ obwohl ich natürlich „Eintracht“ meinte, also das Gegenteil von Zwietracht, wovon ich ein großer Fan bin. Solche Missverständnisse passieren ständig in Gesprächen und müssen erstmal geklärt werden, damit beide im Gespräch wieder die „gleiche Wahrheit“ teilen. Das passiert oft unbewusst über sogenannte Reparaturhandlungen. Hinter den Kulissen schraubt also der Reparaturkater mit dem Schraubenschlüssel halb im Mund an unseren Wortverständnissen.

Die Chatbot-Fabrik
Soweit zu menschlicher Kommunikation, aber wie funktionieren Chatbots kommunikativ? Sie haben es vielleicht geahnt, die zugelassene Wortanzahl für diesen Beitrag reicht nicht ganz aus, die Transformer-Architektur zu erklären, der moderne Chatbots wie ChatGPT zugrunde liegen. Grundsätzlich nutzen solche Systeme aber immer sogenannte künstliche neuronale Netze. Das klingt erstmal etwas abstrakt, aber ich finde, man kann sich diese besser vorstellen wie eine Art Fertigungsanlage.

Wie das in Fabriken eben so ist, gibt es einen Eingang und einen Ausgang. Eher atypisch für Fabriken ist die Mathe in der Mitte, auf die ich in der Kürze nicht näher eingehen kann. Gucken wir aber mal, was passiert, wenn ein Wort wie „Eintracht“ im Chatbot ankommt. Die Mathe in der Mitte kann leider nicht menschlich sprechen und deshalb wird das Wort erstmal umgewandelt in etwas viel Schöneres und Praktischeres als ein Wort: einen Vektor. Mithilfe der sogenannten Embedding-Funktion bekommt jedes Wort, das in einen Chatbot hineinfließt, einen eigenen Vektor – wie in einem Wörterbuch. Als Vektor kann das Wort dann in der Mathe weiterverarbeitet werden, die einen anderen Vektor ausspuckt, der erstmal mit einer weiteren Embedding Funktion wieder in ein Wort umgewandelt wird.
Die Bedeutungsfunktion
Diese Embedding Funktion ist hierbei super interessant! Die aus Wörtern übersetzten Vektoren lassen sich nämlich – ganz wie in der Schule – in ein Koordinatensystem eintragen. Das sieht dann zum Beispiel so aus:

Aus diesem sogenannten semantischen Raum kann man jetzt ein paar spannende Dinge ablesen. Man sieht zum Beispiel, dass oben links eher leckere Dinge sind und unten rechts eher … Mordinstrumente (angesichts dessen ergibt auch die Position des Baguettes Sinn). Oder dass die Pluralform eines Wortes immer rechts ist. Mit dieser „Landkarte der Bedeutungen“ kann man also die Zusammenhänge von Wörtern im Chatbot verstehen. Übrigens kann man auch menschliches Denken so verstehen, was gleich noch wichtig wird.
Wichtig hier ist: Diese „Bedeutungsfunktionen“ werden einmal trainiert und übersetzen Wörter dann immer in die genau gleichen Vektoren.
Kann KI jetzt Konversation?
So, jetzt wo wir verstanden haben, wie Menschen sich in der Kommunikation anpassen (mit der Schmusekatze Konvergenz und dem Schrauberkater Reparatur) und wie Chatbots Wörter in Bedeutungsvektoren übersetzen, können wir uns jetzt ans Eingemachte setzen: Können Chatbots … chatten?
Hierfür ein letztes Beispiel: Angenommen, ich erzähle Ihnen, dass mein Vater ermordet wurde von … einem Granatapfel. Was passiert dann in Ihrem semantischen Raum (angenommen Sie sind ein Mensch – falls unsicher siehe Test oben)?

Der Granatapfel liegt erstmal oben bei den leckeren Sachen. Aber sobald sie von meiner Mordgeschichte erfahren, bemerkt die Konvergenzkatze: „Irgendetwas stimmt hier gar nicht. Das was ich dachte, was ein Granatapfel tun und lassen kann und das, was ich gerade gelernt habe, passen gar nicht zusammen.“ Und sie ruft direkt die Reparaturkatze, die hervorspringt und den Granatapfel etwas verschiebt – weg von den leckeren Dingen ein Bisschen mehr hin zu den Mordinstrumenten. Und das nächste Mal, wenn Sie das Wort Granatapfel hören, haben sie möglicherweise etwas weniger friedliche Assoziationen.
Aber wie ist das bei Chatbots? Dort wird das Wort Granatapfel genauso verarbeitet wie auch immer zuvor: Entsprechend der zuvor trainierten Bedeutung. Die Fabrik kann super Wörter zur Weiterverarbeitung in Bedeutungsvektoren übersetzen, aber sie wurde eben schon vorher errichtet und kann sich nicht selbst umbauen. Das Ergebnis: Der Granatapfel bleibt an ihrer unscheinbar-unverdächtigen Position bei den Leckereien.
Der Chatbot-Trick
Aber Moment – wenn Chatbots ihre Wortbedeutungen also nicht im Gespräch anpassen können, wie kommt dann so etwas zustande?
**Bild ChatGPT Wassermelone Promt**
Um das zu verstehen, müssen wir hinter die Kulissen blicken und dafür zwei Dinge verstehen:
1. Der Trick mit dem Gespräch
Wenn ich einem Chatbot eine Nachricht schreibe, wirkt es so, als ob der Bot dann nur auf Basis dieser Nachricht antwortet. Das ist falsch! Stattdessen bekommt der Chatbot den gesamten Gesprächsverlauf (so lange wie es das sogenannte Aufmerksamkeitsfenster zulässt) und dann die neue Nachricht drangehängt mit der Aufgabe, herauszufinden, was die wahrscheinlichste nächste Antwort wäre. Er „erinnert“ sich an nichts, sondern bekommt immer wieder einfach das gesamte Gespräch aufgetischt.
2. Der Trick mit der Aufmerksamkeit
Und mit diesem gesamten Gespräch als Input kann das Model das tun, was es am Besten kann: Aufmerksamkeit. Ohne zu technisch werden zu wollen, ist der sogenannte Aufmerksamkeitsmechanismus das, was modernen Chatbots zu ihrer Popularität verholfen hat (für eine technische Erklärung siehe das mittlerweile berühmte Paper „Attention is all you need“). Kurz: Ein Large Language Model, welches einem solchen Chatbot zugrunde liegt, kann jeden Teil des Gesprächs auf jeden anderen Teil beziehen. Das Ergebnis: Die Illusion von Lernen – die Illusion, dass sich die Bedeutungsvektoren angleichen. Das Einzige, was sich hier aber angleicht, ist die kontextuelle Bedeutung, die durch den Aufmerksamkeitsmechanismus über den unveränderten Bedeutungsvektor des Granatapfels gekleistert wird. Ist irgendwann im Gespräch das Aufmerksamkeitsfenster des Chatbots überschritten, wird klar, dass er weiterhin mit der genau gleichen Bedeutung des Wortes arbeitet wie alle anderen seiner Art.
Auch neuere Bemühungen von Firmen wie OpenAI, in ChatGPT eine „Erinnerungsfunktion“ einzubauen, lösen dieses Problem nicht. Diese Funktion ist in etwa wie einer Person ohne Langzeitgedächtnis einen Blog und Stift zu geben: Es kann in vielen Fällen nützlich sein, macht guten Stoff für einen Psychothriller von Christopher Nolan, aber echte Erinnerung ist das nicht.
REFLECT fragt: Was heißt das für gesunde Organisationen?
Aus Lucas Betrachtung ergeben sich für Organisationen drei wesentliche Impulse:
- Kommunikation ist mehr als Information. KI kann Sprache nachahmen, aber sie ersetzt nicht Empathie, Kontextbewusstsein oder nonverbale Signale. Für Führung und Zusammenarbeit bleibt der Mensch entscheidend.
- Vertrauen entsteht durch echte Begegnung. KI-gestützte Kommunikationstools können Prozesse effizienter machen, doch Vertrauen, Motivation und Kultur entstehen vor allem im zwischenmenschlichen Austausch.
- Klare Rollen schaffen Sicherheit. Organisationen sollten bewusst entscheiden, wo KI-Kommunikation sinnvoll unterstützt (z. B. bei Routineaufgaben) – und wo menschliche Gespräche unverzichtbar sind.
Unser Fazit: KI kann Gespräche simulieren, aber die Qualität von Beziehung, Vertrauen und Kultur bleibt menschlich. Wer das klar trennt und bewusst gestaltet, sichert die Basis für gesunde, leistungsfähige Organisationen.
Das könnte Dich auch interessieren

Online Session „Lernen mit KI: Wieviel Mensch braucht wirksames Lernen?“
Unsere Online Session „Lernen mit KI: Wieviel Mensch braucht wirksames Lernen?“ steht kurz bevor!
Nutz die Gelegenheit, echten Erfahrungsaustausch zu erleben: Ein namhafter Kunde berichtet offen über seinen Weg mit KI – zwischen Erfolg und Lernmomenten.
Gemeinsam mit learn by Breuer & Nohr laden wir Dich ein, Impulse zu sammeln und Ihre Fragen direkt an Praktiker zu richten.
Sei dabei – wir freuen uns auf Deine Anmeldung

KI-Avatare in der Beratung
Sie reden mit uns, wirken empathisch und sind immer erreichbar – KI-Avatare halten zunehmend Einzug in die Beratung. Ob im Kundenservice, in der Medizin oder in der Personalentwicklung. Doch wie verändert das digitale Gegenüber unser Vertrauen in solchen Situationen? Und warum ist Transparenz so entscheidend für die Akzeptanz?
Genau diesen Fragen geht unser Partner learn in seinem neuen Artikel „KI-Avatare in der Beratung“nach.


