LLM-Homogenisierung — Warum dein LLM dich durchschnittlich macht

ChatGPT macht dich durchschnittlich. Nicht weil es schlecht ist — sondern weil es genau das tut, wofür es gebaut wurde.

Harvard-Forscher haben gerade gemessen, was viele ahnen. Sie stellten GPT-5.1 eine offene Frage — 1.000 Mal. Das Modell lieferte genau 19 verschiedene Ideen. Neunzehn. Während eine andere Abfragemethode aus demselben Modell über 1.300 herausholt.

Das ist kein Bug. Es ist ein Nebeneffekt der Optimierung.

Moderne Sprachmodelle werden auf Präzision getrimmt — das wahrscheinlichste nächste Wort gewinnt. Bei Fakten ist das brillant. Bei Strategie, Produktentwicklung oder Positionierung ist es ein Problem — denn "statistisch wahrscheinlich" bedeutet: konventionell. Mainstream. Genau das, was dein Wettbewerber auch bekommt.

Und es wird schlimmer, nicht besser: Je leistungsfähiger ein Modell auf Benchmarks wird, desto enger wird sein Output bei offenen Fragen. In den Tests waren die neuesten Modelle homogener als ihre Vorgänger. Mehr Rechenleistung, weniger Originalität.

Die Harvard-Studie zeigt auch einen Ausweg. Mit einer veränderten Abfragemethode kommen statt 19 plötzlich 1.307 verschiedene Ergebnisse raus. Bei vergleichbarer Relevanz. Aber ein komplett anderer Suchraum.

Was heißt das konkret?

→ Wer Sprachmodelle für Ideenfindung nutzt, sollte sich bewusst sein: Die ersten fünf Vorschläge sind die konventionellsten — nicht die besten. → Verschiedene Modelle parallel nutzen. Claude, GPT, Gemini, ein Open-Source-Modell — sie haben unterschiedliche Blind Spots. → Den Einstiegspunkt bewusst verschieben. Nicht fünfmal dieselbe Frage stellen — frag aus der Perspektive eines komplett fachfremden Feldes. Statt "Wie verbessern wir unser Onboarding?" frag: "Was würde ein Spieledesigner an unserem Onboarding kritisieren?" Jeder Perspektivwechsel zwingt das Modell in einen anderen Teil seines Wissensraums. → KI-Output nie als Ergebnis behandeln, sondern als Startpunkt. Die interessanten Ideen liegen jenseits der Top-5.

Das Problem ist nicht die Technologie. Das Problem ist, dass die meisten sie wie ein Orakel behandeln statt wie ein Werkzeug.

← Alle Beobachtungen