Kategorie-Archiv: Automatisierte Wettbewerbsanalyse

Preismonitoring

Preismonitoring/ Preismonitor

Preismonitoring bezeichnet die Überwachung von Preisen der Konkurrenz. Ziel ist es Informationen zu sammeln, die man im Rahmen der eigenen Preis- und Angebotspolitik verwenden kann. Aber auch auf Beschaffungsseite sind die Kenntnis der Preise und deren Entwicklung sinnvoll. Welche Möglichkeiten (SaaS, Eigenentwicklung oder Software kaufen) es gibt, selbst ein Preismonitoring durchzuführen, wird hier beschrieben. Weiterlesen

Ähnlichkeitsmaße in der Preisoptimierung

Bei der automatischen Wettbewerbsanalyse und Marktanalyse mittels Robots und Crawlern ist ein Schwerpunkt die Bereinigung der gesammelten Informationen. Dazu müssen Produkte miteinander verglichen werden. Da sich die Bezeichnungen für die gleichen Produkte jedoch von Shop zu Shop unterscheiden können sind Algorithmen notwendig, die gleiche Produkte erkennen. Dazu werden sogenannte Ähnlichkeitsmaße bzw. Distanzmaße verwendet.  Weiterlesen

Sprachen, in denen Webcrawler für die Marktanalyse erstellt werden können

Die Crawler können in verschiedenen Sprachen bzw. Frameworks und mit verschiedenen Mitteln umgesetzt werden. Für gezielte Datenabfragen von nur wenigen Produkten, kann es sich sogar lohnen, die Abfrage automatisiert über den eigenen Rechner durchzuführen. Dafür stehen auch Browserplugins zur Verfügung. Größere Abfragen sind eher von einem Server aus durchzuführen. 

Weiterlesen

Einsatz von Crawlern und Robots in der Wettbewerbsanalyse

Gerade im Onlinehandel wird eine schnelle Reaktion auf veränderte Wettbewerbsbedingungen immer wichtiger. Dazu müssen jedoch permanent Informationen über die Konkurrenten erhoben werden. Regelmäßiges Scannen der Webseiten und Onlineangebote im Rahmen der Wettbewerbsanalyse ist jedoch zu zeitaufwändig, um dies per Hand zu tun. Daher ist sinnvoll, die Abfrage der Informationen mit Hilfe von Crawlern zu automatisieren.

Weiterlesen

Informationen, die mit Hilfe eines Crawlers in der Marktanalyse gewonnen werden können

Im Prinzip kann ein Crawler alle Informationen auslesen, die eine Webseite bereitstellt. Darunter fallen nicht nur die Informationen, die der normale Nutzer sieht, sondern auch Informationen aus der Struktur der Seite.

Weiterlesen