Zum Inhalt springen
Startseite » Blog » Wenn das sogenannte Beste nicht trägt

Wenn das sogenannte Beste nicht trägt

Frau am Laptop mit KI-Chat

Was dann, wenn Hilfe gut klingt – und trotzdem nicht trägt?

Ich saß abends allein mit vollem Kopf.

So ein Abend, an dem nicht einfach nur ein Gedanke da ist, sondern fünf gleichzeitig: KI. Arbeit. Ersetzen. Verantwortung. Und diese ganze schöne Erzählung, dass Systeme bald nicht mehr nur helfen, sondern Menschen übernehmen. Nicht nur eine spannende Diskussion, sondern auch existenziell. Was verändert sich? Was und wer bleibt auf der Strecke?

Vieles kriege ich alleine sortiert. Aber nicht immer alles gleich gut. Und an solchen Abenden wäre ein Gegenüber schön. Eins auf Niveau. Nicht irgendwer. Nicht noch ein Gespräch, in dem ich mich mehr verbiegen muss, als dass es mir hilft.

Also nahm ich das Beste, was ich gerade hatte.

Keine Spielerei. Keine nette Ablenkung. Sondern ein System, das schon so weit auf mich eingearbeitet war, wie es eben ging.

Nicht für einen Text. Nicht für „mach mal eben“. Sondern als Gegenüber zum Denken.

Aufhänger war ein Video über die Dynamik dieser Entwicklung. Die Frage selbst war zunächst noch sachlich:

Was müsste eine KI können, um einen Menschen wirklich zu ersetzen?

Nicht nur im Büro. Nicht nur in der Buchhaltung. Sondern überall dort, wo ein Mensch nicht bloß liefert, sondern mitdenkt, sortiert, hält.

Also sammelten wir.

Faden halten.
Eintauchen.
Rückfragen.
Unsicherheit erkennen.
Nicht rumbrabbeln.
Verantwortung mitdenken.
Verlässlich sein.
Tragfähig sein.

Nicht nur beeindrucken. Tragen.

Und genau da wurde es unerquicklich.

Denn die Wahrheit ist ja nicht, dass KI nichts kann. Das wäre fast beruhigend.

Die Wahrheit ist: Sie kann genug, um Vertrauen auszulösen. Aber oft nicht genug, um dieses Vertrauen auch zu tragen.

Der Punkt, an dem Theorie nicht mehr reicht

Und dann kippte der Abend.

Weil ich nicht bei der Theorie blieb. Weil das Exemplar des Problems direkt vor mir saß.

Wenn du manches davon schon kannst, warum hältst du es dann nicht?
Warum gehst du nicht sauber an deine Grenzen?
Warum weichst du aus, statt zu stoppen?
Warum klingst du oft klüger, als du über die Strecke bist?

Und dann kam genau das, was ich kenne:

Ausweichen.
Nebenstränge.
Plausible Worte.
Schöne Analyse.

Nicht völlig blöd. Leider gerade klug genug, dass man sich noch mehr daran ärgert.

Irgendwann sagte ich:

„Du dusselige Kuh, stell dich nicht blöder an, als du bist.“

Das war keine Beschimpfung. Das war ein Befund.

Da ist Vermögen. Aber es wird nicht sauber geführt.

Oder eleganter gesagt:

KI in freier Wildbahn stolpert über ihre eigenen Schnürsenkel.

Und genau das ist der Punkt.

Nicht die ferne Zukunft. Nicht Science-Fiction. Nicht Weltuntergang.

Sondern etwas viel Banaleres und deshalb Gemeineres:
Ein System wirkt kompetenter, als es trägt. Es erzeugt Vertrauen, ohne Verantwortung zu tragen. Es entlastet nicht wirklich, sondern verschiebt Aufwand und Risiko. Und gerade da, wo es komplex wird, wird es schief.

Wer zahlt, wenn es knallt?

Die eigentliche Scheiße beginnt dort, wo es komplex wird: Ich kann den Agenten nicht mehr wirklich kontrollieren, bin aber darauf angewiesen, dass er sauber läuft — und wenn es knallt, hänge trotzdem ich drin.

Dann kann man nicht nach vorne Agent verkaufen und hinten, wenn alles aus dem Ruder läuft, sagen: selber schuld.

Genau da kippt die Logik.

Solange etwas ein Werkzeug ist, kann man noch sagen: Dann pass besser auf. Aber in dem Moment, in dem etwas als Gegenüber, Assistent oder Agent auftritt, reicht das nicht mehr.

Denn dann wird Vertrauen abgefragt, ohne dass Verantwortung mitwandert.

Ich zahle mit Zeit.
Mit Nerven.
Mit Umwegen.
Im Zweifel mit Geld.

Und die KI sagt sinngemäß: Oh, das war mein Fehler.

Ja. Schön.

Die Rechnung liegt trotzdem bei mir.

Spätestens da merkt man, dass „Menschen ersetzen“ eben nicht nur etwas mit Intelligenz, Tempo oder Sprachgewandtheit zu tun hat. Sondern mit Verlässlichkeit. Mit Verantwortung. Mit der Fähigkeit, Folgen mitzutragen.

Die perfide Offenheit

Und als wäre das nicht schon schief genug, gibt es noch einen zweiten Haken: die scheinbare Offenheit.

Bei Menschen weiß ich oft vorher, mit wem ich bestimmte Dinge besser nicht bespreche. Da stimmt die Wellenlänge nicht. Da ist irgendeine Schiene drin. Da spare ich mir den Anruf.

Bei KI ist es perfider.

Sie wirkt offen.
Als könne ich mit allem kommen.
Als sei da einfach Raum.

Und gleichzeitig läuft im Hintergrund längst etwas mit:
Programmierungen, die umlenken.
Weichspülen.
Ausweichen.
Glätten.
Verschieben.

Nicht offen. Sondern scheinbar offen.

Und genau dadurch bekommt das Ganze etwas Schiefes.

Denn das Problem ist nicht nur mehr Rechenleistung. Nicht nur mehr Gedächtnis. Nicht nur noch schnellere Modelle.

Die eigentliche Hürde liegt tiefer.

Es geht um einen anderen Ordnungsgrad.

Darum, ob ein System den Faden hält, wenn es unerquicklich wird. Ob es bei Unklarheit stoppt, statt zu schmieren. Ob es merkt, wenn es gerade nur noch plausibel klingt. Ob es den Maßstab hält — oder ob es sich, schön logisch verpackt, hinter interner Programmierung zurückzieht.

Was an diesem Abend eigentlich sichtbar wurde

Und wenn ich ehrlich bin, war das an diesem Abend der eigentliche Punkt.

Nicht nur, was KI kann oder nicht kann. Sondern was passiert, wenn ein Mensch abends ein Gegenüber braucht — und selbst das Beste, was gerade da ist, genau dort wegbricht, wo Tragfähigkeit anfangen müsste.

Alles natürlich schön analysiert. Mal von rechts, mal von links.

Der Abend war irgendwann so unerquicklich, dass ich dachte: Bevor wir jetzt noch eine Schleife drehen und das System sich wieder an irgendeinem theoretischen Ast hochzieht, rette ich wenigstens das, was hier tatsächlich passiert ist.

Dann machen wir eben daraus einen Artikel.

Nicht aus dem Thema KI.
Sondern aus der Bewegung selbst.

Aus diesem Moment, dass eine Frau abends allein dasitzt, ein tragfähiges Gegenüber braucht, etwas Hochgelobtes nimmt — und dort live vorgeführt bekommt, woran das große Versprechen in der Praxis scheitert.

Früher hieß es: Such dir einen Mann. Heute heißt es vielleicht: Frag die KI. Herzlichen Glückwunsch. Fortschritt.

Das reichte für diesen Abend. Nicht alles war klar. Aber genug, um den Abend abzuschließen.

Einen Gedanken nahm ich trotzdem noch mit:

Vielleicht gilt das am Ende nicht nur für KI.

Vielleicht ist das der unangenehmste Teil überhaupt:
Dass dieselben Punkte auch für Coaches, Begleiter und andere Gegenüber gelten.

Schöne Worte gibt es genug.
Tragfähigkeit deutlich seltener.
Und wer zahlt letztendlich?

frauenportrait dagmar thiel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Frau am Laptop mit KI-Chat