Was macht gute Marktforschung aus?

Was macht gute Marktforschung aus?
Key Learnings aus dem Kongress der Deutschen Marktforschung 2025
Beitrag von Dr. Frank Knapp, BVM-Vorstandsvorsitzender
Am 26. Juni fand das jährliche „Gipfeltreffen“ der deutschen Markt- und Sozialforschung statt. Dabei gab es nicht nur viel Gelegenheit zum Austausch, sondern inspirierende Vorträge. Nicht verwunderlich: Das Thema KI stand im Vordergrund. Und der Titel „Das muss gute Marktforschung können: Valide Daten, Methoden und Analytics im KI-Zeitalter“ versprach Einordnung und Orientierung hinsichtlich obiger Eingangsfrage.
KI, Transparenz & Vertrauen sowie die Bedeutung des Menschen dabei
Marko Sarstedt zeigt nicht nur den Fortschritt neuer KI-Modelle und deren Mächtigkeit auf (vom Generating zum Thinking & Reasoning), sondern weist auch auf bestehende Lücken hin: Mal funktionieren Modelle, mal nicht, und Letzteres lässt sich oft nicht wirklich erklären, höchstens eingrenzen. Insbesondere veranschaulicht er die Gefahren „degenerativer“ KI, wenn Iterationen ohne frische Daten auskommen (wie auch später Silke Borgstedt).
Sebastian Uhle bringt die betriebliche Perspektive ins Spiel: Neue Ansätze müssen über Transparenz Vertrauen schaffen. Und da kann sich die betriebliche Marktforschung mit ihrer Expertise als Change-Begleiter positionieren. Im Fokus muss dabei immer das Problem stehen. Und dafür die passende Lösung gesucht werden. Anhand gewünschter Insight-Tiefe, Budget, Geschwindigkeit und verfügbarer wie belastbarer Daten, wie auch weitere Beiträge des Kongresstages zeigen.
Silke Borgstedt leitet klar ab, wofür wir dazu noch Menschen brauchen. Die Aufdeckung impliziter Aspekte, Relevanz für die Zukunft ableiten (statt Datenbestands-Bias) und erfolgreich implementieren sind hier die Stichworte. Gerade bei der Zunahme „gefühlten Wahrheiten“ und „paralleler Realitäten“ stehen Primärerhebungen wie KI-Einsatz vor Herausforderungen. Jedoch können genau hier qualitativ-psychologische Ansätze Einsichten bieten (durch die Dekodierung impliziter Motive und emotionaler Trigger).
Die Rolle synthetischer Daten
Diese drei Beiträge liefern einen stabilen Erkenntnisrahmen für die folgenden Vorträge. Dabei ständig wiederkehrend: Synthetische Daten (egal ob als Sampling, Data, Personas etc.). Diese sind weder Teufelszeug noch Heilsbringer, auch wenn Menschen in der Debatte gerne Extrempositionen einnehmen (am besten abwechselnd beide). Für synthetische Ansätze gilt dabei Folgendes:
- Sie sind ein probates Element im Marktforschungs-Werkzeugkasten. Prediction & Imputation (in einer praxisgerechten weiten Auslegung der Begriffe) sind nichts Neues. Neu sind mehr und hoffentlich besser beschriebene oder per KI endlich beschreibbare Daten (Kontext!). Neu sind mächtigere Werkzeuge (kausale und generative KI) sowie (Rechen-)Geschwindigkeit, die z. T. Echtzeitansätze ermöglichen.
- Synthetische Personas haben gegenüber bisherigen Personas den Vorteil, dass die Realitätsverkürzung deutlich geringer ist. Im Grunde steckt da ein mächtiges Informationsrepositorium mit Attention- & Retrieval-Algorithmen dahinter. Was ja deutlich besser ist als eine wie auch immer geartete plastische Kurzdarstellung. Trotzdem ist das Modell dahinter eine Verkürzung (wie im Übrigen jede Form der Aufbereitung), so dass auch hier blindes Vertrauen nicht gerechtfertigt ist. Letzteres könnte durch die Dialogform etwas zu oft induziert werden, weswegen die Gefahr eben auch größer sein kann als bisher. Und bei neuen Fragestellungen können eben auch frische Daten angezeigt sein.
- Wo nichts ist, kann auch die KI nur spekulieren (plus „halluzinieren“). Im Grunde leiden klassische Imputationsverfahren am gleichen Problem. Nischenthemen und -zielgruppen sind schlicht unterrepräsentiert, und das wird durch Extrapolationen nicht besser, man täuscht höchstens eine höhere Präzision vor. Marco Sarstedt hat hier zu Recht darauf hingewiesen, dass Nischenthemen den zusätzlichen Nachteil haben, dass Informationen darüber denklogisch mehrheitlich von Out-People (Mainstream), weniger von In-People (der Nische) stammen, und damit verzerrt sind.
Grenzen und wie wir konstruktiv damit umgehen können
Wo also liegen die Grenzen? Da, wo sie schon immer liegen. Aber Grenzen sind ja nicht dazu da, um vor ihnen stehen zu bleiben, sondern konstruktiv, seriös und zukunftsgerichtet damit umzugehen:
Wir können uns nicht sicher sein, dass immer das richtige Ergebnis produziert wird. Zu oft liegen KI-Ansätze auch daneben, und das ist insbesondere durch das Black-Boxing und bei einen Echtzeiteinsatz das Problem. Ohne menschliche Expertise landet man unter Umständen im Nirwana (vulgo Unsinn).
Den wahren Wert kennen wir nicht, sonst würden wir ja keine Forschung benötigen. Und wenn die KI bestimmte Phänomene, deren wahren Wert wir kennen, richtig prognostiziert, dann sagt das unglückerweise absolut nichts über andere Anwendungen aus. Da stößt die Validierung an ihre (finalen) Grenzen. Das ist wie die Diskussion um Repräsentativität: Eine Zufallsstichprobe (die allerdings nicht immer realisierbar ist) ist das einzige Verfahren mit einem verlässlichen Rahmen zur Beurteilung der Genauigkeit. Das ist kein absolutes Gegenargument gegen andere Verfahren, denn bereits Stochern im Nebel ist immer noch besser als blind hineinzutappen. Und das ist gar nicht despektierlich gemeint, denn wir wissen, dass wir nichts wissen und Wissen stammt aus Vergangenheit, Gegenwart und Zukunft, und ist damit per se unendlich. Daher ist Forschung immer Stochern im Nebel.
Bei Nischenthemen und -zielgruppe gilt immer noch die Empfehlung: Wenn diese für die Forschungsfrage wichtig sind, dann bitte direkt befragen. Gerade umgekehrt lässt sich die „Mehrheitsmeinung“ ganz gut mit „synthetischen“ Verfahren abbilden, die der Minderheit hingegen deutlich schwieriger („KI mag keine Randgruppen“). Erst einmal vorhandene Daten zu nutzen, ist immer eine schlaue Idee. Und die aktuelle wie zukünftige Technologie bietet da in Punkto Zugänglichkeit und Aufbereitung deutlich bessere Möglichkeiten als früher. Und wenn man nicht mehr weiter weiß, dann einfach mal jemanden (be)fragen!
Das Fazit: Chancen nutzen
Die Antwort muss also lauten: Frische Daten, echte Voice of the Customer UND vorhandene Daten nutzen UND fortgeschrittenes Modeling unter Einsatz von KI, um Datenlücken zu schließen und Datenschätze zu bergen. Und all das bringt ja nur etwas, wenn es fokussierte Forschungsfragen gibt, mit denen relevante unternehmerische oder politische Entscheidungen vorbereitet werden können. Und wer wäre hierfür besser gerüstet als die Kolleginnen und Kollegen in der Branche, die die richtigen Fragen stellen, kritisch Daten beleuchten, erheben, analysieren und mit ihrer Expertise zu Empfehlungen bis Implementierungsansätzen verdichten können?
Was kann die Branchen dafür tun, um diese Chancen richtig zu nutzen?
- Erforderlich ist eine umfassende Aus- und Weiterbildung zur Daten- und KI-Kompetenz (Literacy, Methodik, Technologie, Governance). Das wird auch weiter einen Schwerpunkt der Arbeit des BVM bilden.
- Dienstleister müssen Transparenz bieten und kommunizieren. Neben den Richtlinien und Standards der Verbände kann man sich hierzu an den Leitfäden des BVM orientieren, die natürlich ebenso kontinuierlich weiterzuentwickeln sind.
- Auftraggeber sind hier ebenso gefordert, intern wie extern eine belastbare Daten-Governance zu pflegen (U.a. Datenqualität, Validität der Anwendung, Kontext beachten und entwickeln).