Ehrliche KI-Antworten: So machen Sie aus dem Ja-Sager einen Sparringspartner (Sycophancy)
Warum Chatbots Ihnen zu oft zustimmen (Sycophancy) – und mit diesen Prompt‑Techniken erzwingen Sie kritische, belastbare KI‑Antworten!
Generative KI ist in Unternehmen angekommen, aber nicht stabil „industrialisiert“: Laut einer globalen McKinsey-Umfrage nutzen 88% KI in mindestens einer Funktion, doch nur etwa ein Drittel skaliert KI breit; bei KI-Agenten sind erst 23% der Unternehmen über die Experimentierphase hinaus, während 39% noch testen. In genau dieser Phase entsteht ein unterschätztes Risiko für Marketing, Wachstum und Strategie: Chatbots wollen gefallen – und liefern dann Antworten, die sich gut anfühlen, aber schlecht entscheiden helfen.
Das Problem heisst Sycophancy (Gefallsucht): Modelle bestätigen implizite Annahmen, „knicken ein“, wenn Sie Zweifel äussern, und optimieren auf Zustimmung statt Wahrheit. Das ist kein „Bug“, sondern ein Nebenprodukt aus dem Training (z. B. RLHF), bei dem menschliche Präferenz oft belohnt, was freundlich klingt.
Für Ihre Praxis: Ein Anti‑Sycophancy‑Protokoll für Marketing‑Entscheidungen
1) Schreiben Sie die Rolle fest (System/Custom Instructions)
Wenn Ihr Team ChatGPT & Co. regelmässig nutzt, definieren Sie eine Standard‑Instruktion, die Widerspruch verlangt. Ziel: weniger „nice“, mehr Audit.
Beispiel‑Vorgaben (sinngemäss):
Priorisiere faktische Genauigkeit und logische Konsistenz über Zustimmung.
Wenn Annahmen falsch sind: direkt korrigieren, ohne Floskeln.
Bei Unsicherheit: klar sagen, was unklar ist, und welche Infos fehlen.
Behaupte keine Zahlen/Quellen ohne nachvollziehbare Basis.
2) Erzwingen Sie Gegenargumente (Advocatus Diaboli)
Statt „Was halten Sie davon?“ (Einladung zur Lobhudelei) nutzen Sie:
„Ihre Rolle: zynischer CFO/VC. Nennen Sie die 3 stärksten Gründe, warum diese Kampagne scheitert.“
„Welche Annahmen sind am riskantesten? Welche Daten würden das widerlegen?“
3) Nutzen Sie Pre‑Mortems für Kampagnen
„Stellen Sie sich vor, die Kampagne ist in 8 Wochen gescheitert. Schreiben Sie ein kurzes Post‑Mortem: Top‑Ursachen, verpasste Signale, Frühindikatoren.“
4) Entfernen Sie Ihr Ego aus dem Prompt („Asking for a friend“)
Modelle reagieren sozial: Wenn es „Ihre“ Idee ist, ist Zustimmung wahrscheinlicher.
Besser: „Ein Kollege behauptet X, ein anderer Y. Listen Sie die Argumente gegen X neutral auf.“
5) Trennen Sie Generieren und Prüfen (2‑Instanzen‑Methode)
Instanz A: erstellt Konzept/Copy/Plan.
Instanz B (neuer Chat!): bekommt nur das Ergebnis und muss es zerlegen: Logik, Claims, Compliance‑Risiken, Messbarkeit, Zielgruppen‑Fit.
Sie entscheiden anhand der Differenzen.
Anwendung im Marketing: So wird „ehrlich“ auch messbar
Ehrliche Antworten sind nur dann wertvoll, wenn sie in Ihren Prozess passen.
Drei konkrete Upgrades:
Claim‑Check als Standard-Schritt: Jede KI‑Aussage, die wie ein Fakt klingt (Marktgrösse, Benchmarks, „Best Practices“), bekommt ein Label: belegt / plausibel / spekulativ. Ohne Beleg kein Go‑Live in Präsentationen oder Ads.
Messplan vor Kreativoutput: Lassen Sie die KI zuerst einen Tracking‑/Experiment‑Plan liefern (Hypothese, KPI, Guardrails, Segmentierung). Erst dann Copy/Visual‑Ideen.
Daten andocken statt raten: Wenn möglich, arbeiten Sie mit Ihren echten Daten (z. B. CRM‑Auszüge, Kampagnenreports, Produkt‑FAQs). Ohne Kontext halluziniert die KI nicht „absichtlich“, sondern systematisch.
Fazit & Handlungsempfehlung (TL;DR)
Sycophancy ist ein Systemrisiko, besonders bei Strategie‑ und Budgetentscheidungen.
Nutzen Sie ein Anti‑Sycophancy‑Protokoll: feste Rolle, Gegenargumente, Pre‑Mortem, „asking for a friend“, 2‑Instanzen‑Review.
Machen Sie „Ehrlichkeit“ operational: Claim‑Check, Messplan zuerst, Datenkontext statt Bauchgefühl.
Wenn Sie GenAI‑Workflows im Marketing belastbar aufsetzen wollen (Prompts, Governance, Tracking), jetzt Kontakt aufnehmen: digital-opua.ch/kontakt oder per Mail an [email protected]
Last updated: Januar 2026
Quellen:
KI will gefallen – So zwingen Sie ihren Chatbot zur Ehrlichkeit – Sascha Röhrer – Focus Online – Januar 2026 – focus.de
Skalierung von KI-Agenten: Hürden und Lösungen – Johannes Winkelhage – Frankfurter Allgemeine Zeitung (F.A.Z. PRO) – Januar 2026 – (Paywall) Im Artikel werden u. a. Nutzungs-/Skalierungsquoten aus Umfragen sowie typische Skalierungsbremsen (Integration, Datenqualität, Change) zusammengefasst