Künstliche Intelligenz – warum wir uns gerade jetzt damit beschäftigen
Künstliche Intelligenz ist kein klassisches REFLECT-Thema. Und doch verändert sie bereits heute unsere Arbeitswelt und stellt Organisationen wie Menschen vor neue Fragen: Wie verändert KI Zusammenarbeit und Kommunikation? Wo liegen Chancen, wo Risiken? Und was bedeutet das für gesunde, zukunftsfähige Organisationen?
Wir haben keine fertigen Antworten, aber wir sind überzeugt: Es lohnt sich, genau jetzt hinzuschauen – mit kritischer Neugier und aus unterschiedlichen Perspektiven. Deshalb widmen wir die kommenden Monate diesem großen Thema.
Zum Auftakt starten wir mit einem Gastbeitrag von Luca Neuperti. Er ist ITler, Soziologe und Politikwissenschaftler und verbindet diese ungewöhnlichen Blickwinkel zu einem frischen Zugang auf die Welt der KI. Seine Texte sind informativ, pointiert und manchmal auch augenzwinkernd – und genau das macht sie wertvoll als Einstieg. Seine Expertise, sein Stil und seine Person haben uns überzeugt und wir vertrauen darauf, dass auch Sie, als langgewohnte Leser unseres Blogs diesen „Ausflug“ in die KI schätzen werden.
Künstliche Intelligenz ist überall. Aber könnten Sie sie definieren?
KI ist in aller Munde. Immer mehr Produkte werden als „KI-basiert“ angepriesen, man hat das Gefühl, jede App integriert KI und einige fürchten gar einen KI-Weltuntergang. Aber: Was ist sie eigentlich, diese KI?
Das hatte auch ich mich gefragt. Als Informatiker werde ich gerne und oft zu KI befragt und da dachte ich, es ist es sehr hilfreich, wenn ich KI auch richtig definieren kann. Nach einem Studium der Informatik kann das ja nicht so schwer sein, oder?
Wenn ich etwas nachschlagen möchte, suche ich gerne Wikipedia. Was sagt Wikipedia also zum Thema KI? „Es gibt zahlreiche Definitionen für den Begriff KI“. Ja, danke. Vielleicht hilft eine schnelle Bildersuche?

Okay, KI ist auf jeden Fall … blau. Aber gibt es vielleicht noch weitere, etwas konkretere Eigenschaften von KI? In Deutschland wird ja nun immer mehr diskutiert, KI in Unternehmen einzusetzen. Können deshalb vielleicht Menschen in Unternehmen besser definieren, was KI ist? Dazu hat Deloitte 2020 eine Befragung in mittelständischen Unternehmen durchgeführt. Die Ergebnisse:

Die Verwirrung scheint auch in diesen Antworten vorzuherrschen. 38% sagen, KI ist, wenn selbstständig Entscheidungen getroffen werden. Sicher eine gute Definition, wenn man einen Münzwurf auch als KI klassifizieren möchte. 8% sind wohl gänzlich verwirrt und antworten „KI ist Digitalisierung“.
LinkedIn: Finde die Fehler
Aber ich habe noch nicht aufgegeben und einfach mal auf LinkedIn nach KI gesucht. Was ich dort alles gefunden habe, lässt sich gut in diesem einen fiktionalen Beitrag zusammenfassen:

Und weil Ihnen solcherlei Beiträge sicher auch öfter begegnen, habe ich mal diejenigen Teile ausgegraut, die eine falsche Darstellung sind:

Also, wir kommen der Sache schon näher: „ist“ – irgendetwas scheint also zu existieren. Aber was stimmt denn an dem Rest nicht? Gehen wir das mal Stück für Stück durch:
„Künstliche Intelligenz“
Der Begriff „Künstliche Intelligenz“ fußt auf dem der natürlichen oder eben menschlichen Intelligenz. Nur ein kleines Problem, KI so zu definieren: Niemand in der Psychologie ist sich so richtig sicher, wie Intelligenz bei Menschen überhaupt zu definieren ist. Die Probleme hören hier aber nicht auf: Wenn menschliche Intelligenz der Maßstab ist, werden KI-Systeme unbewusst vermenschlicht. Menschliche Symbolik sieht man zum Beispiel auch oben bei der Google-Bildersuche.
Sehr spannend ist in diesem Kontext auch das Thema Gender: eine Studie (Wong & Kim 2023: „ChatGPT Is More Likely to Be Perceived as Male Than Female“) zeigt: Wenn man Menschen direkt fragt, welches Geschlecht ChatGPT denn hat, sagen 93% „neutral“. Die Forschenden sind dann aber etwas cleverer vorgegangen und haben zuerst gefragt, welchen Namen man ChatGPT denn geben würde und dann in einem zweiten Schritt, welches Geschlecht denn dieser Namen habe. Plötzlich war die Antwort signifikant mehr „männlich“.
„eine“
Was kann denn aber an „eine“ falsch sein? Wenn man „KI“ hört, kann man an ganz verschiedene Dinge denken: Schachcomputer, Chatbots, Roboter, Klimavorhersagesysteme, Spracherkennung etc. Warum spricht man dann aber von einer Technologie? Der Kleber, der all diese Dinge unter dem Begriff KI zusammenhält, ist die Aura der Magie (siehe auch Campolo & Crawford 2020: „Enchanted Determinism“). Wenn man diese KI-Magie Verbindung erstmal erkannt hat, findet man sie überall. Hier z.B. die Logos einiger KI-Produkte:

KI-Produkte lassen sich mit der Idee von Magie deutlich besser vermarkten, weil die Fantasie der Kundschaft dann einfach die Lücken auffüllt und verschiedenste KI-Systeme sehr viel mächtiger und zusammenhängender wirken als sie eigentlich sind.
„neutrale“
Die Behauptung, dass KI nicht neutral ist, haben Sie sicher schon öfter gehört. Aber was genau ist nicht neutral an ihr? Um das zu verstehen, müssen wir etwas unter die Haube schauen: Alle modernen KI-Systeme basieren auf sogenannten Künstlichen Neuronalen Netzwerken. Die heißen so, weil sie grob auf der Intuition davon basieren, was Informatiker Frank Rosenblatt 1955 dachte, wie Gehirne vielleicht funktionieren. Hier sind nicht etwa kleine künstliche Gehirne am Werk, sondern in erster Linie Statistik umhüllt von der Metapher menschlicher Kognition.
So ein Netzwerk bringt im Ausgangszustand aber herzlich wenig. Es ist wie ein unbeschriebenes Blatt. Um all die Dinge zu tun, die von KI-Systemen erwartet werden, muss das Netzwerk erst trainiert werden. Und dafür brauchen wir Daten. So weit, so neutral. Woher kommen die Daten? Aus dem Internet. Und das wiederrum kommt von der Gesellschaft. Moment… die Gesellschaft? Das ist doch der Ort, wo die ganze Diskriminierung und der ganze Hass ist. Mist! Scheint also ganz und gar nicht neutral zu sein.
Tatsächlich spiegeln solche Netzwerke als Statistikmaschinen das, was sie in den sehr menschlichen Daten gefunden haben – the good, the bad and the ugly.
Aber da hört es zum Glück noch nicht auf: Es gibt nämlich noch eine Kontrollinstanz, die der Diskriminierung entgegenwirken kann: Große multinationale Konzerne. Nun ist es ja auch nicht besonders gut für die Publicity, wenn das eigene KI-Modell ständig diskriminierende Sachen von sich gibt. Deshalb trainieren diese Firmen ihre Modelle nochmal nach – das heißt „Finetuning“. Um das Ergebnis an einem Beispiel zu verdeutlichen, schauen wir uns mal an, was vor einem Jahr herauskam, wenn man Google Gemini bat, ein Bild eines deutschen Soldaten aus dem Jahr 1943 zu generieren:
Ups, knapp daneben ist auch vorbei! Wir sehen also: Verzerrungen können sowohl aus diskriminierenden Daten stammen als auch aus übereifrigen „Korrekturen“ durch die Firmen selbst. Alles andere als „neutral“.
„Technologie“
Aber ist denn KI zumindest eine Technologie? Gucken wir uns hierzu nochmal die Grafik an, wie KI trainiert wird. Wie bereits beschrieben gibt die Gesellschaft ihre Daten zum Training ab. Das passiert hauptsächlich durch zwei Prozesse: Einmal „spenden“ Menschen ihre Kunst und ihre Daten, ohne ihr Wissen oder ihr Einverständnis, netterweise an KI-Firmen, die ihre Bots damit trainieren. Das reicht aber nicht aus, denn zum Training braucht es (oft) auch Label, also zum Beispiel neben dem Bild einer Ananas die Beschriftung, dass das auch eine Ananas ist. Diese Label fallen nicht vom Himmel, sondern werden von oft sehr schlecht bezahlten Menschen händisch eingetragen.
Wirkt also fast so, als ob KI ohne menschliche Arbeit nicht funktionieren würde. Diese wird auch nochmal beim Finetuning gebraucht. KI jetzt bloß als „Technologie“ zu beschreiben, wäre ein Bisschen wie den Bundestag zu beschreiben als eine Ansammlung von Mikrofonen und Stühlen. Diese sind zwar wichtig, aber es ist erst das Zusammenspiel von Mensch und Maschine, das den Bundestag arbeiten lässt. Das Ganze nennt man in der Soziologie auch „sozio-technische“ Systeme. KI ist also keine Technologie, sondern viele sozio-technische Systeme.
„die unsere Gesellschaft transformieren wird“
Man hört dieser Tage sehr oft den Satz „KI kann unsere Gesellschaft verändern“. Das ist auch sicher wahr. Aber zum ganzen Bild gehört auch das Spiegelbild des Satzes: „Unsere Gesellschaft kann KI verändern“.Anstatt KI wie eine Naturgewalt zu betrachten, die über uns herbricht und an die man sich anpassen muss, haben wir die Chance, KI als ein Werkzeug zu sehen, das von Menschen gemacht wurde. Eines, das sich durch ethische Forschung und smarte Policy verändern lässt und eines, von dem man case-by-case überlegen kann, wo eine Anwendung in der eigenen Firma Sinn ergibt und wo nicht.
Was ist denn nun KI?
Zusammengefasst: Künstliche Intelligenz ist nicht wirklich intelligent, es ist nicht eine Technologie, sondern viele verschiedene sozio-technische Systeme und diese sind nicht neutral, sondern durch Trainingsdaten und Finetuning verzerrt. KI bricht nicht über uns her, sondern ist etwas, was wir kontrollieren und smart einsetzen können.
Ich hoffe, dass diese kritische Betrachtung von KI-Hypebegriffen hilft, zu erkennen, wo tatsächliche Innovation steckt und wo nur Augenwischerei betrieben wird, mit Vorstellungen von Magie oder menschengleichem Denken.
Von den vielen Dingen, die als KI bezeichnet werden, sind Chatbots vermutlich das, was uns zuerst einfällt, wenn wir „KI“ hören. Aber wie genau funktionieren Chatbots und wie menschlich können sie tatsächlich kommunizieren? Diese Fragen beantworte ich in dem zweiten Blogbeitrag dieser Reihe.
REFLECT fragt: Was heißt das für gesunde Organisationen?
Aus Lucas Beitrag lassen sich für Organisationen drei zentrale Gedanken ableiten:
- KI ist kein Selbstzweck. Sie ist kein magisches Allheilmittel, sondern lebt von den Daten und Strukturen, in die sie eingebettet wird. Organisationen müssen prüfen, wo KI echten Mehrwert bringt – und wo nicht.
- Der Mensch bleibt zentral. KI-Systeme sind sozio-technische Systeme – ohne menschliche Arbeit, Steuerung und Verantwortung funktionieren sie nicht. Führungskräfte und Mitarbeitende bestimmen, wie sinnvoll KI genutzt wird.
- Gestaltung statt Getrieben-Sein. KI ist kein Naturgesetz, das über uns hereinbricht. Organisationen haben die Chance, den Einsatz bewusst zu gestalten – entlang ihrer Werte, Kultur und Ziele.
Unser Fazit: KI ist ein Werkzeug. Gesund bleibt eine Organisation dann, wenn sie entscheidet, wo KI hilft – und wo Menschlichkeit unersetzlich bleibt
Das könnte Sie auch interessieren:

Online Session „Lernen mit KI: Wieviel Mensch braucht wirksames Lernen?“
Wir laden Sie dazu ein, von den Erfahrungen eines namhaften Kunden mit Einsatz von KI u.a. im Bereich der Mitarbeiterqualifikation zu lernen, sich Inspiration zu holen, über den eigenen Tellerrand hinauszuschauen.
Gemeinsam mit unserem Partner learn by Breuer & Nohr stellen wir Ihnen diesen Use-Case vor und Sie haben die Möglichkeit, Ihre Fragen zu dem Thema an jemanden zu richten, der praktische Erfahrung gesammelt hat, mal mehr, mal weniger schmerzlich.

KI-Avatare in der Beratung
Sie reden mit uns, wirken empathisch und sind immer erreichbar – KI-Avatare halten zunehmend Einzug in die Beratung. Ob im Kundenservice, in der Medizin oder in der Personalentwicklung. Doch wie verändert das digitale Gegenüber unser Vertrauen in solchen Situationen? Und warum ist Transparenz so entscheidend für die Akzeptanz?
Genau diesen Fragen geht unser Partner learn in seinem neuen Artikel „KI-Avatare in der Beratung“nach.