Toolvorstellung strucr.com

Tobias Schwarz hat mir die Möglichkeit gegeben sein neues Tool zur Überprüfung der internen Linkstruktur von Websites zu testen.
Das Tool hat er passender Weise strucr genannt und ist unter der gleichnamigen .com Domain zu erreichen.

Für wen eignet sich strucr?
Strucr wurde entwickelt um die interne Verlinkung von Websites zu analysieren und Schwachpunkte aufzudecken und dadurch die interne Verlinkung zu verbessern. Somit eignet sich strucr für jeden der eine größere Website betreibt, bei der es nicht mehr ohne weiteres geht händisch die interne Linkstruktur festzustellen.
Auch für Agenturen stelle ich mir strucr als ein sinnvolles Instrument vor, um dem Kunden eine fundierte Übersicht über seine Seite zu bieten als sich einfach nur z.B. auf die „google site Abfrage“ zu verlassen.

Ablauf:
Strucr verfügt über mehrere Bots, die erst nach Verifizierung des Seiteneigentümers losgeschickt werden können. Dabei halten sich die Bots strikt an die robots.txt Regeln. Das bedeutet für den Anwender, das er bestimmte Seitenbereiche von der Analyse ausschließen kann. Wie z.B. ein Forum oder ein Blog die nicht zur eigentlichen Site gehören.
Hat man ein für sich entsprechendes Paket gebucht, legt man die Seite an, die man analysieren lassen will. Daraufhin generiert strucr eine Datei, die man, ähnlich wie bei Google Analytics, in den Rootordner seiner Website laden muss, um sich als Besitzer der Website zu bestätigen.

Ist die Website bestätigt, können Crawlaufträge erstellt werden. Dabei kann man angeben wieviele Level tief der Bot crawlen soll und wie viele Bots ich auf die Website loslassen will. Bei „None“ geht der Bot so tief wie es Verlinkungen gibt, oder bis das Limit für die zu crawlenden Seiten erreicht ist. Hierbei sollte man ggf. Rücksprache mit der Technik halten, damit diese über den Traffic bescheid wissen.
Wenn der Crawl erstellt wurde beginnt der Bot kurz darauf mit seiner Arbeit. Je nach Größe der Website und den Einstellungen beim Crawlen kann dies schon etwas dauern.

Wenn der Crawl beendet ist wird dies durch einen grünen Haken im Dashboard vor der entsprechenden URL angezeigt. Jetzt kann man auf die URL klicken um zu dem Report der Analyse zu gelangen.
Der Report gliedert sich in mehrere Bereiche, die wiederrum in weitere Unterbereiche aufgeteilt sind:

Overview
Links
PageRank
CheiRank
2D-Rank

Beim Overview wird eine Übersicht der zu crawlenden Seiten, der wirklich gecrawlten Seiten, Seiten die mit NoFollow verlinkt waren und Seiten, die keine HTML Seiten sind aufgelistet.

Hierbei hat sich herausgestellt, dass viele User ihre Seitengröße unterschätzen. Laut Tobias hätten die meisten User den Faktor 10 für die Anzahl der zu crawlenden Seiten mit einbeziehen können.
Nach der Statusübersicht folgt eine Auflistung der Seiten nach Level, also wie viele Seiten mit wie vielen Klicks zu erreichen sind. Startseite = Level 0, von der Startseite mit einem Klick erreichbar = Level 1 usw.
Hierbei sollte sich optimaler weise eine Pyramide zeigen, deren Basis dementsprechend das unterste Level darstellt.

Als dritter Teilreport im Overview werden Seiten mit einem hohen Level aufgelistet. Diese Seiten sind also von der Startseite sehr schwer zu erreichen. Hier kann der User entscheiden, ob diese Seiten nicht so wichtig für seine Besucher sind oder ob er darüber nachdenken sollte diese Seiten in der Navigationsstruktur anders verlinken sollte.
Liegen in einem hohen Level z.B. nur Userseiten einer Community ist das schon mal ein gutes Zeichen. Wenn nicht grad die Hauptaufgabe der Seite ist, das User sich mit ihren Profilen im Netz finden.

Der nächste Hauptpunkt trägt die Überschrift Links.
Der Report teilt sich in zwei Unterbereiche. Seiten mit vielen ausgehenden Links und Seiten mit vielen eingehenden Links. Hierbei werden immer nur die internen Links gerechnet.
Auch hier kann der User entscheiden ob diese Seiten unbedingt so viele ausgehende Links enthalten, bzw. eingehende Links erhalten sollen. Bei vielen Analysen wird wohl auch das „Impressum“ auf einem der vorderen Plätze erscheinen.

Der dritte Bereich ist mit PageRank tituliert, ist aber auf keinen Fall mit dem Google PageRank ™ gleich zu setzen.

Auch dieser Bereich ist in zwei Abteilungen aufgeteilt. Zuerst kommt eine Übersicht mit Seiten, die einen hohen Pagerank innerhalb des Linkgraphen aufweisen, gefolgt von einer Liste mit Seiten die zudem nur sehr wenige ausgehende Links enthalten. Bei diesen sollte man sich überlegen ob es Sinn macht evtl. hier noch den einen oder anderen Link zu platzieren.

Nach dem PageRank Report folgt der CheiRank Report.

Der CheiRank stellt die relative Bedeutung bei der die Gewichtung der ausgehenden Links über den Linkgraphen der gecrawlten Inhaltsseiten dar. Somit bedeutet ein hoher CheiRank bei einer Inhaltsseite, dass diese als Hubseite genutzt werden kann. Es spricht für sich selbst, das man solche Seiten mit weiteren Links von Authoritäten und Externen Links weiter stärkt um die Hubwirkung noch zu verstärken. Im zweiten Teil des Reports befindet sich eine Liste mit Seiten die einen hohen CheiRank haben und nur wenige ausgehende Links. Hier sollte man überlegen ob es sich nicht doch lohnt den einen oder anderen internen Link zu einer Seite zu setzen die vllt. sehr tief in der Struktur liegt aber dennoch wichtig für die User ist.

Als letzter Report folgt der 2D-Rank Report.

Der 2D-Rank berechnet aus PageRank und CheiRank die wichtigsten Seiten. Tauchen hier Seiten auf die der User als irrelevant erachtet, sollte bei diesen Seiten die interne Linkstruktur überarbeitet werden.

Detailreports
Ein Klick auf eine der vorgeschlagenen URLs führt den User zu einer Detailübersicht zu der entsprechenden URL. Hier sind alle Werte im einzelnen für diese URL noch einmal aufgeführt. Dazu kommen noch eine Liste mit 20 eingehenden Links und eine Liste mit allen ausgehenden Links von dieser URL. So kann man gleich sehen von welcher Seite man den einen oder anderen eingehenden Link entfernen will oder ob von den ausgehenden Links nicht doch der eine oder andere Link entfernt werden kann.

Das Preismodell
Die Dienstleitung von strucr kann man in 4 verschiedengroßen Paketen buchen.
Angefangen bei Small für 25 Euro im Monat und bis zu 10.000 Seite pro Crawl bis hin zum X-Large Paket für 350 Euro im Monat und bis zu 10.000.000 Seiten pro Crawl. Rabatte werden bei vierteljährlicher, halbjährlicher und jährlicher Zahlung gewährt. Eine genaue Übersicht über das strucr Preismodell findet sich hier.

Selbstverständlich sind Tobias und sein Team noch dabei das eine oder andere zusätzliche Feature einzubauen, wie ein Export, aber für mich ist schon diese Version ungemein hilfreich bei meiner täglichen Arbeit.

Keine Kommentare mehr möglich.