Wenn die Maschinen übernehmen
Von Klaus Janke
Von Klaus JankeKünstliche Intelligenz macht Marktforschung schneller, effizienter – und vielleicht sogar besser. Noch ist nicht abzusehen, wie weit die Veränderungen gehen. Klar ist aber: Die gesamte Wertschöpfungskette könnte umgekrempelt werden.
Offene Antworten mit Hilfe von KI codieren – aus dieser Idee hat das Schweizer Startup Caplena ein erfolgreiches Geschäftsmodell gemacht. Kunden wie Lufthansa, DHL, Ebay, Flixbus und Tegut nutzen das System, um strukturierte Daten aus unstrukturierten Texten zu gewinnen. Caplena ist 2018 gestartet, als KI in der Marktforschung noch ein Novum war. Seit der Einführung von ChatGPT im November 2022 hat sich das massiv verändert. Was bedeutet das für einen Pionier wie Caplena?
„Generative KI hat nochmal einen Schub für uns gebracht und uns geholfen, weitere Services zu entwickeln“, berichtet Maurice Gonzenbach, Mitgründer und CoCEO. Dazu gehören eine Funktion, die Textinhalte zusammenfasst, und ein DialogInterface: „Darüber kann man Fragen zu einer Studie stellen, um quantitative Auswertungen mit qualitativen Erkenntnissen zu ergänzen.“ Marktforscher einer Airline können zum Beispiel nachfragen, was Passagiere speziell über Desserts gesagt haben, obwohl das Thema nicht kategorisiert ist.

“Generative KI hat nochmal einen Schub für uns gebracht.”
Aktuell arbeitet Caplena an dynamischen Themensammlungen für die Auswertung offener Antworten oder Kommentare. „KI wird in der Lage sein, dem Nutzer selbstständig neue Themen vorzuschlagen, die an Häufigkeit gewonnen haben oder neu aufgekommen sind, aber noch nicht als Kategorie vorhanden sind“, so Gonzenbach. Er geht davon aus, dass sich die Anwender künftig um den Aufbau einer Kategorienliste kaum noch kümmern müssen: „Anstatt die KI anzulernen, wird es immer mehr möglich sein, die Zuordnungen durch die KI eigenständig vornehmen zu lassen, wenn man ihr genug Kontext gibt“, glaubt Gonzenbach. „Es wird immer leichter werden, das gesamte Feedback strukturiert zu erfassen, ohne dass man selbst für diese Strukturen sorgen muss.“
Generative KI ist ein Spiel ohne Grenzen
Wie Caplena prüft zurzeit fast die gesamte Marktforschungsbranche, was sich mit KI und Machine Learning ausrichten lässt. Bei der aktuellen BVM-Branchenumfrage geben 96 Prozent der Befragten an, dass die Bedeutung der KI zunehmen wird. Das Spektrum der Möglichkeiten ist extrem breit: Sie kann helfen, große Datenmengen zu analysieren, Muster zu erkennen und Entwicklungen vorherzusagen. Sie kann Interviews transkribieren, Befragungsdaten ordnen und auswerten, tieferliegende Bedeutungen in Antworten identifizieren und sogar Gefühle erkennen – Stichwort Facial Coding. Vielleicht können Interviews mit Large Language Models (LLM) sogar Gespräche mit menschlichen Probanden ersetzen.
„Fast jedes Marktforschungsinstitut ist zurzeit dabei, die neuen Möglichkeiten mit ChatGPT und anderen generativen Anwendungen zu testen“, beobachtet Dirk Engel, selbstständiger Berater, Marktforscher und Hochschuldozent. Generative KI stehe erst am Anfang, und noch seien die praktischen Konsequenzen kaum überschaubar. „Es ist gut möglich, dass künftig keine standardisierten Interviews mehr geführt werden“, nennt Engel ein Beispiel. „Die Befragten werden vielmehr in einem kurzen Video aufgenommen, in dem sie sich unstrukturiert zu einem Thema äußern. Die KI sorgt dann für Strukturierung, Codierung und somit für die Quantifizierung der Aussagen.“
Malte Friedrich-Freksa, Chief Innovation Officer beim Panel-Betreiber Horizoom, ist sich sicher: „Anwendungen wie ChatGPT können entlang der gesamten Marktforschungskette Vorteile bieten. Sie unterstützen bei der Fragebogen- und Designkonzeption, der Code- beziehungsweise Syntaxerstellung im Rahmen der Fragebogenprogrammierung und Datenanalyse und und generieren ManagementReportings.“ Es könne auch sinnvoll sein, die KI noch vor Beginn eigener Erhebungen zu Explorationszwecken zu befragen: Wie groß dürfte die Markenbekanntheit von Brand X sein?
Sinn in komplexe Strukturen bringen
Die gute Nachricht: KI in der Marktforschung muss nicht teuer sein – auch über BasisAnwendungen wie ChatGPT oder Midjourney hinaus. Lars Schmedeke, Projektleiter beim Hamburger Marktforschungsinstitut Splendid Research, betont, dass sich zum Beispiel Embedding Analytics von OpenAI „sehr kostengünstig“ nutzen lassen. Das Institut setzt ada v2 von OpenAI ein. Damit ist es möglich, offene Antworten effizient zu codieren, zu clustern und in einen Vektorraum zu transformieren. Dort liegen dann ähnliche Antworten nah beieinander.
Splendid Research hat generative KI unter anderem in einem Projekt genutzt, in dem es darum ging, den englischsprachigen Claim eines Kunden ins Deutsche zu übertragen. Die lokale Marketing-Agentur des Kunden hatte neun deutsche Varianten entwickelt. Daraufhin wurden Probanden gebeten, ihre Assoziationen zu den vorgelegten Claims zu formulieren. Die Antworten wurden in den Vektorraum transformiert, so dass zu erkennen war, welche Claims am nächsten am Markenkern lagen. Aber Splendid Research nutzt nicht nur generative KI: „Wir setzen auch, wo immer es sinnvoll ist, KI-Anwendungen für statistische Aufgaben und in der Datenanalyse ein, etwa für t-SNE, eine Technik zur Dimensionsreduktion bei der Analyse großer Datenmengen, oder Mischverteilungs-Modellierungen“, erklärt Schmedeke. Großes Potenzial bietet aus seiner Sicht die sogenannte „explainable AI“, mit der sich Sinn in komplexe Strukturen bringen lässt: „Sie hilft dabei, Prognosen zu verstehen und zu interpretieren, die sich aus Machine Learning herleiten“, so Schmedeke.

“KI bringt zunächst eine massive Effizienzverbesserung. Mehr Effizienz bedeutet aber nicht automatisch auch mehr Effektivität.”
Worauf läuft das alles hinaus? Wird Marktforschung künftig nicht nur einfacher, sondern auch besser? Diese Frage lässt sich nicht ohne Weiteres beantworten. „KI bringt zunächst eine massive Effizienzverbesserung“, sagt Experte Friedrich-Freksa, der auch BVM-Seminare zu KI betreut. „Man kann viel mehr Daten in kurzer Zeit verarbeiten, viele Routinearbeiten lassen sich schneller erledigen oder fallen weg.“ Mehr Effizienz bedeute aber nicht automatisch auch mehr Effektivität. Aber der Horizoom-Manager sieht auch handfeste qualitative Vorteile: „KI-basierte Assistenzsysteme helfen zum Beispiel über die Iteration bei der Konzeption von Insight-Studien.“ Zudem stelle KI auch eine qualitative Verbesserung dar, „als man bestimmte Datenmassen ohne LLM-Modelle oder andere KI-basierte Verfahren gar nicht auswerten würde“.
Software sorgt für mehr Qualität im Panel
Effizienz und Qualität lassen sich also kaum trennen. Viele Prozesse können zwar auch von Menschen besorgt werden, aber nicht so schnell und präzise. Das wirkt sich meist auf die Qualität aus. Ein Beispiel ist die Qualitätssicherung bei Panel-Befragungen. Die Betreiber haben chronisch mit Bot-Mitgliedern, Klickfarmen, Incentive-Jägern oder ganz einfach mit Personen zu kämpfen, die Fragebögen möglichst schnell und mechanisch abarbeiten. Um hier besser gegenzusteuern, hat der internationale Panel-Anbieter Dynata vor rund zwei Jahren eine KI Lösung namens Quality Score entwickelt, die nun global im Einsatz ist. „Damit haben wir den Prozess der Qualitätskontrolle präziser und effizienter gemacht“, sagt Country Manager Oliver Frangakos. Der Quality Score prüft das Antwortverhalten der Panel-Teilnehmer bereits während der Studie und sortiert problematische Fälle aus. „Die Software stellt fest, wenn Personen mehrfach an einer Studie teilnehmen, automatisches Klick und Antwortverhalten zeigen oder Copy & Paste-Antworten einfügen“, so Frangakos. Vieles war auch schon vor Einsatz der KI „händisch“ möglich, aber nicht so effizient und flächendeckend.

“Die Software stellt fest, wenn Personen automatisches Klick- und Antwortverhalten zeigen oder Copy & Paste-Antworten einfügen.”
Der Quality Score hat bei Dynata zu einer starken Bereinigung der Panels geführt, was auch einen geringeren Korrekturbedarf in den Studien bedeutet. „Die Cleaning-Raten liegen nun meist im einstelligen Prozentbereich“, erläutert der Deutschlandchef. Vor einigen Jahren, in der Hochphase neuer Fraud-Technologien, lag sie teilweise zwischen 15 und 20 Prozent. In vielen Fällen wird die Entscheidung, ob ein Datensatz genutzt wird oder nicht, aber immer noch von Menschen vorgenommen. „Es gibt nachlässig ausgefüllte Fragebögen, die auf große Unlust bei den Probanden schließen lassen“, so Frangakos. „Das heißt aber nicht, dass diese Aussagen wertlos sind. Es kann die Ergebnisse verzerren, wenn man nur Auskünfte von sehr engagierten Personen verwendet. Diese entsprechen ja nicht dem Bevölkerungsdurchschnitt."
Panel-Anbieter können auch KI-Tools von externen Anbietern wie dem österreichischen Startup Redem nutzen. „Unsere Lösung wird zu rund 90 Prozent für Daten aus Online-Acess-Panels verwendet“, berichtet CEO und Gründer Florian Kögl. Das System wurde in engem Austausch mit den Kunden aus der Marktforschungsbranche über die letzten Jahre erarbeitet. „Darüber hinaus informieren wir uns ständig unter anderem im Darknet über neue Praktiken des Missbrauchs“, so Kögl. „Während die Möglichkeiten der Betrugserkennung durch KI größer werden, rüstet natürlich die Gegenseite ebenfalls auf – es ist ein Katz-und-Maus-Spiel.“

“Während die Möglichkeiten der Betrugserkennung durch KI größer werden, rüstet natürlich die Gegenseite ebenfalls auf – es ist ein Katz-und-Maus-Spiel.”
Redem-Anwender bekommen einen CreditPlan, dessen Preisgestaltung von der Zahl der analysierten Interviews abhängt. Im Schnitt fallen etwa 15 Cent pro Interview an. Um „Ausreißer“ zu identifizieren, reichen dem System rund 50 Interviews pro Studie. Redem ist dabei, seine Produktpalette zu erweitern: „Wir haben ein neues Produkt speziell für Panelanbieter entwickelt, mit dem sich die Qualitätskontrolle auch auf Mitgliederebene durchführen lässt“, erklärt Kögl. „Es umfasst unter anderem eine Kontrolle bei der Registrierung, mit der man verhindern kann, dass problematische Personen oder Identitäten überhaupt erst in das Panel auf genommen werden."
Die „Feldarbeit“ kann an Bedeutung verlieren
KI könnte dazu führen, dass der ohnehin starke Automatisierungs- und DIY-Trend zusätzlichen Rückenwind bekommt. Marktforschung auf Knopfdruck wird noch zugänglicher. Werden die Algorithmen damit auch zum Jobkiller? Bislang kommt kein öffentlicher Vortrag zum Thema KI ohne den beruhigenden Verweis aus, dass am Ende immer noch ein Mensch die Oberaufsicht haben muss. Aber bleibt das so? „Noch sind Marktforscher unentbehrlich, wenn es um die Erklärung der Daten geht“, sagt Berater Dirk Engel. „Aber die Bastion der Interpretation wird schneller fallen, als uns allen lieb ist.“ Mit dem Siegeszug der KI werde die Marktforschung nicht überflüssig werden, ihre Bedeutung aber geringer.

"Die Bastion der Interpretation wird schneller fallen, als uns allen lieb ist."
Fraglich ist vor allem, in welchem Umfang künftig noch Primärerhebungen, also vor allem Befragungen, durchgeführt werden. Die klassische „Feldarbeit“ könnte unter Druck geraten. Die Szenarien für neue Formen der Informationsgewinnung sind bekannt. Das Internet of Things liefert genaue Informationen über das häusliche Leben der Menschen, umfassend digitalisierte Supermärkte wissen alles über ihre Einkaufsgewohnheiten, Bewegungsdaten erfassen ihre Mobilität. Im Internet hinterlassen die Menschen bereits viele digitale Spuren, vielleicht passiert dies bald auch in der physischen Welt. Noch stärker als bislang schon könnten dann Verhaltensdaten die Befragungsdaten ablösen, die die Marktforschung liefert. Statt reale Menschen könnte man dann LLMs wie ChatGPT befragen, die all dieses Wissen aggregiert „im Kopf“ haben. Big Data füttert sich selbst.
Wie synthetisch dürfen Daten sein?
Ricardo Santos ist 42 und lebt im portugiesischen Porto. Er rechnet sich zur gehobenen Mittelschicht, hat einen Master-Abschluss in IT und arbeitet als Software Ingenieur. Er ist Vater und lebt getrennt von seiner Partnerin. Seine Kinder erzieht er „strukturiert“. Was man noch wissen muss: Santos gibt es nicht wirklich. Er ist eine synthetisch erzeugte Person, die das amerikanische Startup Synthetic Users in einer Präsentation vorstellt. Exemplarisch wird dort gezeigt, wie das Unternehmen virtuelle Probanden für Befragungen erzeugt und wie man mit ihnen redet. In der Beispiel-Studie geht es um die Sorgen und Bedürfnisse portugiesischer Eltern mit gemeinsamem Sorgerecht.
Die synthetischen Gesprächspartner lassen sich vielfältig einsetzen, etwa für die Exploration von Problemstellungen oder die Bewertung von Ideen im frühen Stadium. Geplant sind auch Usability-Tests und Prototyp-Kreationen. Die Personas werden nach den Wünschen der Kunden erzeugt und können durch KI und NLP menschliches Verhalten simulieren. Der große Vorteil für die Kunden: Alles geht schnell und kostengünstig. „Ein organisches Interview kann zwischen 50 und 1.000 US-Dollar kosten“, heißt es auf der Website. „Unsere Interviews bieten einen großen Wert für kleines Geld: 3 bis 5 US-Dollar.“
Ist das die Zukunft? Das Konzept synthetischer Interviewpartner löst weltweit Fantasien aus. „Stellen Sie sich vor, Sie müssten keine Menschen mehr fragen, was sie über Ihre Ideen denken“, schreibt Steve Phillips, CEO der US-amerikanischen Marktforschungsplattform Zappi, in einem Blogbeitrag. „Stattdessen könnten Sie einfach prognostizieren, wie sie darauf reagieren.“ Phillips räumt aber auch ein, dass man kein Produkt launchen sollte, bei dem man sich allein auf die positive Einschätzung von KI verlässt: „Reales Konsumenten-Feedback sollte im gesamten Prozess einfließen.“ KI-Analysen könnten aber als erste Stufe im Forschungsprozess dienen, die dann mehr Richtungen aufzeigen, als es in der Vergangenheit möglich war. Zappi arbeitet intensiv mit KI und Automatisierungsfunktionen. 2022 steckten Investoren 170 Millionen US-Dollar in KI-getriebene Pre-Testing-Funktionen auf der Plattform. „KI wird jede Phase des Forschungsprozesses disruptieren“, glaubt Phillips.
Frischer Input ist unverzichtbar
Seit einigen Jahren wird auch diskutiert, welche Rolle synthetische Daten dabei spielen. Dabei lernt die KI von „echten“ Daten und überträgt deren Eigenschaften auf künstlich erzeugte Datenpunkte. Diese können dann wieder für neue Berechnungen verwendet werden – mit dem Vorteil, dass keine Datenschutzbestimmungen im Weg stehen. „Synthetische Daten werden auch in der Marktforschung an Bedeutung gewinnen – das ,Silicon Sample‘ wird in der einen oder anderen Form zum Standard“, glaubt Engel. Es gibt aber auch Bedenken: „Ich sehe synthetische Daten sehr skeptisch, weil sie auf Wissen der Vergangenheit basieren und daher zu Disruptionsblindheit führen“, sagt Splendid-Research-Forscher Schmedeke. „Zudem kann es starke inhärente Biases geben.“

“Ich sehe synthetische Daten sehr skeptisch, weil sie auf Wissen der Vergangenheit basieren.”
Damit spricht Schmedeke ein grundlegendes Problem der KI und Data-Welt an. Je stärker auf Grundlage vorhandener Daten, gelernter Wahrscheinlichkeiten und extrapolierten Trends gearbeitet wird, desto größer wird die Gefahr, dass Marktforschung im eigenen Saft kocht. Das kann eine Weile gut gehen, aber irgendwann braucht das System frischen, organischen Input, aus dem es dann wieder lernen kann – eine positive Conclusio für die Marktforschung.
Wie auch immer es weitergeht: Die Jahre 2022ff. werden die Jahre sein, in denen viele Hebel umgelegt wurden – vielleicht wird sogar alles auf den Kopf gestellt. Was die KI-Praxiserfahrung angeht, haben die Unternehmen, also die Kunden der Marktforschung, zurzeit einen Vorsprung. „Die Brands haben aufgrund ihrer Kapazitäten im Innovationsbereich verschiedene KI-Anwendungen bereits implementiert, die langsam auch auf spezifische Marktforschungsanwendungen ausgeweitet werden“, beobachtet Friedrich-Freksa. Institute und technische Dienstleister seien aber ebenfalls dabei, spezifische KI-Anwendungen zu erproben: „Aufgrund der rasanten Entwicklung muss sich im Gegensatz zum eher evolutionär ausgerichteten Digitalisierungsprozess die gesamte Branche jetzt mit dem Thema auseinandersetzen.“

