Interview mit Dr. Katharina Schüller: "Wir brauchen eine neue Generation von Prüfverfahren" 06.05.2025 / Interviews
Der aktuelle Betrugsfall in den USA, bei dem nun acht Personen angeklagt wurden, in großem Stil Umfragedaten gefälscht zu haben, hat die Branche kalt erwischt. Dr. Katharina Schüller findet, der Vorfall muss Konsequenzen haben. Das kommt aus berufenem Munde: Sie ist Gründerin und CEO von STAT-UP Statistical Consulting & Data Science Services. Sie gehört zu den führenden Köpfen für Data Science, Künstliche Intelligenz und Statistik. Mit ihrem internationalen Team aus Mathematik und Statistik berät sie internationale Konzerne sowie Bundesministerien und Bundesämter. Zu ihren Kern-Themen gehören Datenstrategien, Data Literacy, sowie Datenethik und KI-Ethik.
Der BVM sprach mit ihr über Möglichkeiten, solchen Szenarien entgegenzuwirken. Dr. Katharina Schüller wird zudem am 26. Juni 2025 beim Kongress der Deutschen Marktforschung in Berlin sprechen.
Welche Gedanken gingen Ihnen durch den Kopf, als Sie von dem erneuten Betrugsfall in den USA gehört haben?
Dr. Katharina Schüller: Ich war erschüttert, aber nicht überrascht. Der Fall zeigt einmal mehr, wie verletzlich die Branche ist. Selbst etablierte Systeme bieten keine Garantie gegen Missbrauch. Wenn Daten zur Währung werden, aber Transparenz und Kontrolle fehlen, ist Betrug nur eine Frage der Zeit. Besonders problematisch: Solche Skandale werfen nicht nur auf einzelne Anbieter ein schlechtes Licht, sondern beschädigen das Vertrauen in die Marktforschung insgesamt, über Ländergrenzen hinweg. Das betrifft nicht nur den Ruf, sondern auch die Investitionsbereitschaft von Unternehmen, die Zusammenarbeit mit öffentlichen Auftraggebern und nicht zuletzt die Attraktivität des Berufsbilds für den Nachwuchs. Deshalb reicht es nicht, zur Tagesordnung überzugehen. Der Schaden für die Glaubwürdigkeit ist langfristig und nur durch aktive Aufarbeitung und strukturelle Reformen zu beheben.
Den Auftraggebenden wird häufig die Verantwortung zugeschoben im Sinne von, „wer billig bestellt, fordert Betrug heraus“. Reicht das aus?
Das ist mir zu einfach. Natürlich ist es naiv, zu glauben, man könne exzellente Forschung zu Dumpingpreisen bekommen. Aber die alleinige Schuld den Auftraggebenden zuzuschieben, lenkt von einem systemischen Problem ab. Qualitätssicherung ist eine gemeinsame Verantwortung von Instituten, Studienleitungen, Feldpartnern und Auftraggebern. Letztere brauchen allerdings mehr Datenkompetenz, um Qualität zu erkennen, einzuordnen und zu fordern. Nicht jede Untersuchung muss höchste Gütekriterien erfüllen, aber Auftraggeber sollten klar erkennen können, wann und wofür welche Datenqualität notwendig ist. Und die Institute wiederum müssen lernen, den Wert guter Forschung offensiver zu kommunizieren und gegebenenfalls auch Nein zu sagen, wenn Qualitätsansprüche mit dem Budget nicht vereinbar sind. Es braucht also beidseitige Kompetenz und Dialog, nicht Schuldzuweisungen.
Reichen die bestehenden Branchenrichtlinien und Qualitätsstandards aus, um ethische Verstöße zu verhindern, oder bräuchte es strengere Kontrollen und Sanktionen?
Die Standards selbst – etwa von ESOMAR oder ISO 20252 – sind fachlich gut durchdacht. Das Problem liegt nicht in den Regeln, sondern in ihrer unzureichenden Durchsetzung. Gerade bei international ausgelagerten Onlinepanels oder automatisierten Datenerhebungen stoßen klassische Kontrollmechanismen an ihre Grenzen. Hier brauchen wir eine neue Generation von Prüfverfahren: zum Beispiel KI-gestützte Systeme zur Betrugserkennung, statistische Anomalieprüfungen, verpflichtende Herkunftsnachweise für Daten und die Offenlegung von Meta- und Paradaten, zumindest gegenüber dem Auftraggeber. Zudem müssen Verstöße gegen geltende Standards auch Konsequenzen haben, sonst verlieren die Richtlinien ihren Sinn. Ethik darf keine Frage der Auslegung sein. Sie muss mess- und überprüfbar sein. Und genau da besteht derzeit eine erhebliche Lücke.
Hier stellt sich auch immer wieder die Frage nach der Rolle der Verbände: Welche Rolle können oder müssen hier die Verbände spielen?
Verbände wie der BVM, der ADM oder auch internationale Organisationen wie die Insight Association tragen eine zentrale Verantwortung. Sie sind nicht nur Regelverwalter, sondern Hüter der professionellen Glaubwürdigkeit. Sie können Standards setzen, Schulungen anbieten, Best Practices verbreiten – und sie müssen Missstände benennen, statt sie zu relativieren. Ich sehe hier vor allem drei Aufgaben: Erstens die Förderung von Transparenz, etwa durch ein öffentliches Qualitätssiegel oder ein Zertifizierungssystem. Zweitens die Etablierung von unabhängigen Auditverfahren und Whistleblower-Kanälen, um systemische Verstöße aufzudecken. Und drittens die aktive Kommunikation nach außen: Wenn es zu einem Skandal kommt, braucht es einen Verband, der offensiv Stellung bezieht, Verantwortung einfordert und Lösungen vorschlägt. Die Glaubwürdigkeit der Branche steht und fällt mit ihrer Fähigkeit zur Selbstkritik und Reformbereitschaft.
Nun wird gefordert: Die Branche kann und darf nicht einfach zum Tagesgeschäft übergehen und muss daraus lernen und Konsequenzen ziehen! Was könnten das für Konsequenzen sein?
Ein solcher Fall muss Konsequenzen nach sich ziehen, und zwar auf mehreren Ebenen. Strukturell braucht es mehr Transparenz in der Dienstleisterkette. Ein öffentlich einsehbares Register für Subunternehmer, insbesondere Panelanbieter, wäre ein erster Schritt. Hinzu kommen verpflichtende Audits – regelmäßig, unabhängig und dokumentiert. Ein Datenherkunftsnachweis, vergleichbar mit Lieferketten in der Industrie, trägt zur Glaubwürdigkeit bei: Auftraggeber sollten nachvollziehen können, woher die Daten stammen, wie sie erhoben wurden und mit welchen Sicherungsmaßnahmen.
Technisch empfehle ich den breiteren Einsatz von KI zur Betrugserkennung und Datenvalidierung. Gleichzeitig dürfen wir uns nicht auf Technik allein verlassen. Es braucht verpflichtende Schulungen zu Datenethik, Qualitätssicherung und Betrugsprävention – nicht nur für Projektleitungen, sondern für alle Beteiligten. Und ganz wichtig: Daten- und Methodenkompetenz müssen systematisch in die Aus- und Weiterbildung integriert werden. Denn nur wer versteht, wie Daten entstehen, der erkennt auch, wo sie anfällig für Missbrauch sind. Schließlich sollten wir mehr Transparenz gegenüber Öffentlichkeit und Kunden schaffen: Wer mit Daten arbeitet, muss auch erklären können, wie zuverlässig sie sind. Sonst gefährden wir langfristig das Vertrauen, das unser wichtigstes Kapital ist.
Welchen Rat geben Sie Ihren Kunden: Wie können Auftraggeber und Datennutzer die Herkunft und Qualität von Marktforschungsdaten besser überprüfen und kontrollieren?
Mein wichtigster Rat lautet: Vertrauen ist gut – Datenkompetenz ist besser. Auftraggeber sollten nicht nur Ergebnisse konsumieren, sondern verstehen, was ihnen da eigentlich geliefert wird. Dazu gehört erstens: Kritische Fragen stellen. Wer hat die Daten erhoben? Wann? Mit welcher Methode? Welche Kontrollmechanismen wurden eingesetzt – etwa Plausibilitätsprüfungen, technische Betrugserkennung oder Re-Kontakte? Zweitens: Transparenz fordern. Kein Fragebogen, kein Pretest, keine Stichprobenbeschreibung? Dann stimmt etwas nicht. Auftraggeber haben ein Anrecht auf vollständige Dokumentation – nicht nur auf schöne PowerPoint-Charts. Drittens: In eigene Datenkompetenz investieren. Nur wer methodisch versteht, was er beauftragt, kann Qualität wirklich beurteilen. Ich empfehle auch, unabhängige Zweitgutachten einzuholen, gerade bei strategisch relevanten Studien. Darüber hinaus gilt: Bevorzugen Sie zertifizierte Institute, die sich zu überprüfbaren Standards bekennen und bereit sind, Audits zuzulassen. Und ganz grundsätzlich: Sehen Sie sich nicht nur als Kunden, sondern als Mitverantwortliche für eine nachhaltige Datenkultur. Denn nur wenn alle Beteiligten Qualität einfordern und verstehen, kann die Marktforschung ihrer gesellschaftlichen Rolle gerecht werden.