Semantische Analysen im Web: Auf der Marktforschungsmesse gestern und vorgestern stand das Thema „semantsiche Webanalysen“ auf der Agenda. Sowohl „Online“ als auch „Social Media“ sind auch in der Marktforschungsszene derzeit „heiße“ Themen. Was ist mit „Risiken und Nebenwirkungen“? Stehen die auf dem „Beipackzettel“?
Das Angebot klingt äußerst verlockend, die „Mundpropaganda“ des Internet mittels technischer Hilfsmittel in kurzer Zeit zu analysieren. Auch auf der Marktforschungsmesse gestern und vorgestern stand dieses Thema auf der Agenda. Es gab auch einige Workshopvorstellungen zu diesem Thema. Denn sowohl „Online“ als auch „Social Media“ sind auch in der Marktforschungsszene derzeit „heiße“ Themen.
Mich beschäftigt dabei die Frage, wie speziell diese Analysen sind und wie groß die Gefahr, der Analyse am Ende einen Grad der Verallgemeinerung zuzuschreiben, den sie nicht hat. Jedenfalls spürte ich persönlich diese Verallgemeinerungsgefahr während der Vorstellung eines dieser Tools. Die ausgewählte also die als richtig erachtete Basis hat den normalen Marktforschungshaken: was kann mir die Ausgangszielgruppe „erklären“?, wo habe ich Einschränkungen aufgrund der gewählten Grundgesamtheit unbedingt zu beachten, um nicht einen Verallgemeinerungsschluss zu ziehen, den die Basiszielgruppe methodisch gar nicht hergibt?
Zudem ist der Glaube der Anbieter felsenfest, dass die linguistische Perfektion der Tools ausreichend ist. Bedauerlicherweise habe ich über die linguistische Treffsicherheit der Applikationen sowohl im Vortrag als auch auf den Anbieterseiten wenig finden können. Gängige Sprach- und Texterkennungssysteme arbeiten daran, sich deutlich über die 95% Erkennungsquote zu schrauben. Das aber heißt: jedes 20. Wort ist falsch. Persönliches Training soll die Quote auf bis zu 99% steigern. Wie hoch also ist bei den Tools zur semantischen Webanalyse die Quote der richtig erkannten Wörter, Satzstrukuren, Satzzusammenhänge und Satzteilbezüge? Die deutsche Sprache ist in diesem Sinne äußerst komplex. Wie hoch ist der Aufwand des „Verbesserungstrainings“? Wie gut gehen die Systeme mit grammatikalisch falschen Sätzen, falsch geschriebenen Wörtern, Abkürzungen um? Wie wirkt sich eine Fehlerquote auf die Ergebnisse aus? Was wird seitens der Anbieter unternommen, um Ergebnisse zu in dieser Hinsicht abzusichern? Sind am Ende einige wenige face to face durchgeführte Interviews effektiver und zugleich effizienter?
Mit diesen Fragen sollte man sich auseinandersetzen, wenn man zum Mittel der semantischen Analyse greift, um den Lockruf dieser Art Tools nicht einfach zu erliegen, sondern diese fürs unternehmerische Ziel erfolgreich einzusetzen.