200703_wertefabrik_header-3.jpg

Inspiration

Nur, wo Werte sind, kann Sinn entstehen

 
 

 

Blogbeiträge

Das sagt die KI – Punkt.

 

Foto von Solen Feyissa auf Unsplash

 
 

Wie Algorithmen unsere Diskussionskultur töten

Spoiler: Es geht nicht um die Technik. Es geht um uns.

Kennst du das? Du sitzt in einer Besprechung, diskutierst eine schwierige Entscheidung – und plötzlich sagt jemand: „Das sagt die KI.“ Ende der Diskussion. Punkt. Schluss.

Was gerade passiert, ist mehr als nur Effizienz. Es ist eine stille Revolution in der Art, wie wir als Organisation denken, sprechen und entscheiden. Und wir merken es kaum.

Die neue Macht der Maschine

Früher entschieden Menschen. Aufgrund von Erfahrung, nach hitzigen Diskussionen, manchmal auch nach Bauchgefühl oder Hierarchie. War nicht perfekt, aber es war menschlich. Heute übernehmen Algorithmen das Ruder – und Entscheidungen wirken plötzlich objektiver. Aber sind sie das wirklich? Nein. Sie sind nur weniger nachvollziehbar. Und das ist ein gewaltiger Unterschied.

Der Tod des Diskurses

In Organisationen passiert derzeit etwas Faszinierendes: KI verändert nicht nur, was wir entscheiden, sondern wie wir darüber reden. Oder besser gesagt: wie wir nicht mehr darüber reden. Der Diskurs verstummt. „Das sagt die KI“ – Punkt. Warum noch diskutieren, wenn die Maschine es besser weiß?

Drei Dinge passieren gleichzeitig:

  • Erfahrung wird entwertet: „Warum solltest du das besser wissen als der Algorithmus?“

  • Machtstrukturen verschieben sich: Wer die KI versteht, gewinnt. Wer sie nicht versteht, verliert.

  • Verantwortung wird diffus: Wer ist schuld, wenn der Algorithmus falsch liegt?

Paradoxien und neue Zwickmühlen

Entscheiden ist kein Berechnen. Erst im Erkennen und Herstellen gleichwertiger Alternativen übernehmen wir Verantwortung – nicht die Maschine. Wie schon Heinz von Foerster wusste: Jede Entscheidung ist immer auch eine Konstruktion – und trägt Verantwortung in sich. Entscheiden heißt, zu erkennen, dass es Alternativen gibt und die Wahl bewusst zu treffen. Verantwortlich wird, wer entscheidet – nicht die Maschine, sondern der Mensch, der die Maschine einsetzt.

Zudem sind Organisationen zuweilen paradoxe Systeme, in denen Entscheidungen immer mit Widersprüchen und Zwickmühlen verknüpft sind. Statt einer objektiven Wahrheit geht es um den Umgang mit Unsicherheit und Widersprüchlichkeit.

KI-gestützte Bewertung scheint Komplexität zu lösen, überdeckt aber die konstruktive Auseinandersetzung mit echten Alternativen. Diskurs bedeutet, Paradoxien produktiv zu nutzen – statt sie vorschnell zu reduzieren. Organisationen kommen nur auf paradoxe Weise in die Welt, und das ist zugleich Lösung und Problem.

Die Reduktion von Komplexität durch Algorithmen darf daher nie als Beseitigung von Paradoxien missverstanden werden – sie verändern lediglich deren Gestalt.

Eine Situation aus der Praxis

Produktionsunternehmen, irgendwo in Deutschland. Früher war Hans der Meister. 30 Jahre Erfahrung, kannte jede Maschine beim Namen. Wenn Hans sagte „Die Anlage 3 macht Probleme“, dann stimmte das. Punkt.

Heute analysiert eine KI die Maschinenstillstände. Algorithmus sagt: „Alles im grünen Bereich.“ Hans sagt: „Ich höre was.“ Team diskutiert. KI gewinnt.

Das Problem: Es geht nicht darum, wer recht hat. Es geht darum, dass wir aufgehört haben, darüber zu reden, wie wir entscheiden.

Die unsichtbaren Kosten

Die gravierendsten Nebenwirkungen entstehen dort, wo niemand hinschaut: im sozialen Gefüge. Vertrauensverlust entsteht nicht durch schlechte Entscheidungen. Vertrauensverlust entsteht durch nicht nachvollziehbare Entscheidungen – besonders, wenn sich niemand zu ihnen bekennt. Das Ergebnis? Kein offener Widerstand. Sondern ein schleichender Verlust an Engagement. Menschen hören auf zu denken, weil ihre Gedanken nicht mehr zählen.

Was Führung jetzt bedeutet

Führung in der KI-Transformation heißt, Verantwortung zu übernehmen – für die Art, wie mit dieser Technik entschieden wird. Führung ist Beobachtung der eigenen Beobachtung: multiperspektivisch, empathisch, mit Blick auf die blinden Flecken und Paradoxien.

Konkret:

  • Orientierung geben: Durch Klarheit im Umgang mit Unsicherheit. „Wir wissen nicht alles. Aber wir wissen, wie wir mit Nichtwissen umgehen.“

  • Diskurs aufrechterhalten: Die größte Gefahr ist nicht, dass KI falsche Entscheidungen trifft. Die größte Gefahr ist, dass wir aufhören, über Entscheidungen zu sprechen.

  • Verantwortung übernehmen: Für jede Entscheidung, für jeden Algorithmus, für jede automatisierte Empfehlung. Ein Mensch muss mit seinem Namen stehen.

Wir stehen an einem Wendepunkt. Nicht technologisch – der ist längst überschritten. Sondern kulturell. Die Frage ist: Wollen wir Organisationen, in denen Menschen noch denken, diskutieren, zweifeln? Die Antwort liegt nicht in der KI. Die Antwort liegt in uns. In der Art, wie wir mit ihr umgehen. In der Art, wie wir darüber sprechen. In der Art, wie wir Verantwortung übernehmen.

Was du morgen tun kannst

Das nächste Mal, wenn jemand sagt „Das sagt die KI“, frag zurück:
„Und was sagst du dazu?“
„Wie bist du zu dieser Einschätzung gekommen?“
„Wofür übernimmst du die Verantwortung?“

Drei einfache Fragen. Drei Wege, den Diskurs am Leben zu halten. Denn am Ende geht es nicht darum, ob KI richtig oder falsch liegt. Es geht darum, ob wir noch Menschen sind, die menschlich entscheiden. Mit allem, was dazugehört: Unsicherheit, Diskussion, Verantwortung.

„Das sagt die KI“ – Punkt? Nein. Da fängt die Diskussion erst an.