Es gibt diese alte Geschichte vom Kapitalismus: Wer zu viele Prinzipien hat, verliert. Profit schlägt Ethik, immer. Das war zumindest das Memo, das alle bekommen haben.

Diese Woche hat jemand das Memo nicht gelesen.

Der Fall Anthropic

Die US-Regierung wirft Anthropic aus den Bundesbehörden. Der Grund: Das Unternehmen weigert sich, seine KI für Massenüberwachung und vollautonome Waffensysteme bereitzustellen. Ein 200-Millionen-Dollar-Vertrag mit dem Pentagon? Weg. Große Unternehmenskunden? Folgen vermutlich.

In der klassischen Business-Logik ist das ein Desaster. Ein Startup, das Geld verbrennt wie Feuerholz, sagt Nein zu einem der größten Kunden der Welt.

Und dann passiert etwas Interessantes.

Die Abstimmung mit den Füßen

ChatGPT-Deinstallationen steigen um 295 Prozent. Claude-Downloads um 51 Prozent. Katy Perry postet einen Screenshot, wie sie ein Claude-Abo abschließt — zwölf Millionen Views. Eine Bewegung namens QuitGPT geht viral.

Das sind keine Aktivisten. Das sind ganz normale Leute, die mit ihren Wallets abstimmen.

Was hier eigentlich passiert

Wir erleben gerade eine stille Revolution im Konsumentenverhalten. Nicht weil Menschen plötzlich moralischer geworden wären — sondern weil Vertrauen zum knappen Gut wird.

In einer Welt, in der KI-Systeme immer tiefer in unser Leben eindringen, wird die Frage "Wem kann ich vertrauen?" zur Kernfrage. Und Vertrauen lässt sich nicht kaufen. Es entsteht durch Handlungen, die kurzfristig teuer sind.

Anthropic hat gerade sehr teuer signalisiert: Hier sind unsere roten Linien. Das ist glaubwürdig, weil es weh tut.

Das Gewissen als Burggraben

In der Tech-Branche redet man gern von "Moats" — Burggräben, die ein Unternehmen vor der Konkurrenz schützen. Normalerweise sind das Dinge wie Netzwerkeffekte, proprietäre Daten, Skalenvorteile.

Aber was, wenn das Gewissen selbst zum Burggraben wird?

Es ist verdammt schwer, Prinzipien zu fälschen. Du kannst nicht plötzlich "auch ethisch" sein, wenn du jahrelang das Gegenteil bewiesen hast. Das macht Integrität zu einem der wenigen Wettbewerbsvorteile, die man nicht einfach kopieren kann.

Die unbequeme Wahrheit

Natürlich ist das keine Garantie für Erfolg. Anthropic könnte trotzdem scheitern. Die Investor:innen könnten kalte Füße bekommen. Die Regierung könnte weitere Knüppel zwischen die Beine werfen.

Aber selbst wenn — der Präzedenzfall steht: Es gibt einen Markt für Gewissen. Menschen zahlen dafür, sich nicht schmutzig zu fühlen.

Das ist neu. Und es könnte die nächsten Jahre prägen.


Wer seine KI-Nutzung überdenken will: Die Bewegung QuitGPT sammelt Argumente und Alternativen. Claude von Anthropic ist eine davon — nicht perfekt, aber immerhin mit dokumentierten Prinzipien.

Apropos Prinzipien in Krisenzeiten: Der Irankrieg zeigt gerade in Echtzeit, wie KI-generierte Fälschungen die Informationslandschaft vergiften. Satellitenbilder, die tausendfach geteilt werden — teils echt, teils manipuliert. Die Technologie, die uns klüger machen sollte, macht es auch leichter, uns zu belügen. Die Frage, wem wir vertrauen, wird nicht kleiner werden.