SEO

OnPage.org im Test – Wie nutze ich die Filter?

Filter-onpage
Verfasst von Stephan Walcher

Wie viele wissen, arbeite ich gerne mit Excel und dem SEO Screaming Frog und habe in diesem Zusammenhang auch schon mal den einen oder anderen Vortrag zum Thema Onpage Optimierung gehalten. Heute möchte ich euch mal zeigen, wie man eine SEO Onpage Analyse mit dem neuen OnPage Zoom! Tool machen kann. Zu Zoom! gibt es eine schlechte Nachricht: es hat nichts mit seinem Vorgänger zu tun. Die gute Nachricht: es hat nichts mit seinem Vorgänger zu tun! 😉

Zoom! ist nämlich ein komplett neues Tool und das OnPage.org Team hat sich dabei richtig ausgetobt und bietet Anfängern aber auch Datenjunkies alle erdenklichen Freiheiten.

Für meine Analyse habe ich mir den Second Hand Fashion Online Shop „The „Eclectic Journey“ angeschaut, der von zwei Freundinnen vor kurzem ins Leben gerufen worden ist. Der Shop basiert auf Drupal und wurde ohne Fokus auf SEO umgesetzt, somit die richtige Voraussetzung um eine SEO Onpage Analyse zu machen. Ursprünglich war der Artikel eigentlich als kurzes Tutorial geplant, aber wie es das Schicksal des SEOs so oft schreibt, wenn man einmal anfängt mit einem coolen Tool zu arbeiten, möchte man auf einmal so viel wie möglich zeigen. Ich habe daher versucht mit guten und logischen Überschriften zu arbeiteten. Wenn ihr ebenfalls coole Tipps habt, dann schickt mir diese zu oder haut sie in die Kommentare, ich werde euch gerne inkl. Link, Foto, Firma usw. gerne verlinken!

Das Dashboard

Wichtig bei eine SEO Onpage Analyse ist es sich einen Überblick zu verschaffen. Das Dashboard von OnPage.org bietet dazu viele Informationen auf der ersten Seite:

Projektstatus

Auf der rechten Seite finden wir gleich zu Anfangs die allgemeinen Informationen zu unserem Crawl.

clip_image001

Neben einem Screenshot (UserAgent: Googlebot) sehen wir auch wie viele URLs gecrawled worden sind, in diesem Fall 50.000 von 250.000 möglichen. Nun könnte man meinen, dass wenn nicht alle URLs gecrawled werden, wichtige Informationen verloren gehen. Meine Erfahrung hat mir gezeigt, meistens reichen ca. ¼ der URLs locker um genügend Probleme zu identifizieren, mit denen ihr sehr gut Arbeiten könnt. Moderne Systeme basieren nämlich auf templates, egal ob <title> oder <meta name=“description“>, sie werden im normalerweise automatisch generiert und so ist es dann im Grunde egal ob 25k URLs betroffen sind oder 200K, das Problem muss sowieso gelöst werden. Mit welcher Prio, ist dann wieder ein anderes Thema, mehr dazu weiter unten.

Keyword Rankings

Unter den Crawl Informationen finden wir, falls hinterlegt Keyword Rankings. Bei der Anzahl der zu überwachenden Keywords würde ich als Faustregel empfehlen: lieber zu wenige Keywords zu überwachen als zu viele, denn bei zu vielen Keywords verliert man schnell den Überblick. 100-150 Keywords sind für einen schnellen Überblick ok, aber achtet unbedingt darauf dass ihr die Keywords in Gruppen aufteilt und gleichmäßig verteilt, dann fallen Veränderungen schneller auf. Eine mögliche Verteilung wäre z.B.

  • Top Keywords aktuell – Begriffe mit denen ihr bereits auf 1-3 rankt und auf keinen Fall wichtige Positionen verlieren dürft.
  • Seite 2 Keywords – Die Begriffe können auch auf Seite 1 stehen, aber im Grunde geht es um Suchbegriffe an denen ihr gerade arbeitet. Häufig sind das Suchbegriffe, die auf Seite 2 stehen mit denen man den Sprung auf Seite 1 plant.
  • Coming Soon Keywords – Begriffe die ihr im Visier habt, aber noch weit hinten rankt. Wenn ihr später dann den Sprung auf Seite 1 geschafft habt, dann könnt ihr diese Entwicklung in eurem Report sehr gut gebrauchen. Also immer früh genug anfangen Daten zu sammeln, im Nachhinein wird es immer schwierig alle historischen Daten wiederzufinden.

Social & Domain Statistiken

Social Signals sind zwar offiziell kein Ranking Faktor, aber wenn man sich eine Domain das erste Mal anschaut, gibt es doch einen ganz guten Hinweis darüber, wie User eine Seite wahrnimmt. Gerade bei Online Shops sind Social Signals nicht ganz einfach, da Leute diese eher liken, um an einem Gewinnspiel teilzunehmen und eher selten zeigen, dass sie einen Shop einfach gut finden. Sollte aber wie in diesem Fall noch kein großer Fokus auf Social Media gesetzt worden sein, zeigt diese Übersicht für die Startseite doch sehr gut, dass die Seite von den Usern gewertschätzt wird.

clip_image002

Darunter finden wir die Domain Statistiken, hier erhalten wir allgemeine Informationen wie Google PageRank, MozRank und Domain Popularität

clip_image003

Der Google PageRank ist derzeit noch auf 0, das kann entweder bedeuten, dass die Seite noch kein Google PageRank erlebt hat oder zum Zeitpunkt des letzten Updates keine Links mit PageRank besessen hat. Ohne groß in die Analyse zu gehen, zeigt uns diese Zahlen, dass in Sachen Backlinks einiges getan werden muss, eventuell sogar in Kombination mit Content Marketing und erhöhten Social Media Aktivitäten. Dafür braucht es aber eine gute Strategie und noch viel wichtiger die geeignete Man-Power, denn die Zeiten in denen man einfach einen Praktikanten darum gebeten hat die Facebook Seite zu betreuen weil dieser sich ja mit dem Internet auskennt sind inzwischen vorbei und sollten auch nicht wiederkommen.

Optimierungsfaktoren

Die Optimierungsfaktoren befinden sich auf der rechten Seite im Dashboard und sind in 4 Level unterteilt:

  • Level 1 – einfache Optimierungsfaktoren
  • Level 2 – mittelschwere Optimierungsfaktoren
  • Level 3 – Fortgeschrittene Optimierungsfaktoren
  • Level 4 – Experten Optimierungsfaktoren

Die Klassifizierung der Optimierungsfaktoren kann natürlich, je nachdem welches CMS verwendet wird, variieren. Aber auch Faktoren wie die IT selbst, können aus einem sehr einfachen Task, wie zum Beispiel das ausspielen eines 404 HTTP Header Status Codes, einen sehr aufwendigen Task machen. Darum ist es wichtig, sich einen Überblick über die Probleme zu machen und diese dann aus SEO Sicht zu bewerten. Ein Duplicate Title sollte eigentlich sofort behoben werden, aber wenn diese Seiten auf noindex gesetzt sind oder der canonical-tag auf das Original verweist, sinkt die Priorität, da vermutlich andere Sachen wie zum Beispiel ein wild gewordene GET-Parameter eher gefixed werden müsste. Ihr seht es ist daher immer wichtig am Anfang alle Probleme zu erfassen und eventuell auch Zusammenhänge zu erkennen, denn so könnt ihr die Task gebündelt und eventuell sogar schon Zusammenhängend bei der IT eintüten. Das hat nicht nur den Vorteil, dass ihr Themen besser abschließen könnt, sondern die IT wird euch auch danken, was sich im Nachhinein sehr positiv auf das Energy Drinks Budget auswirken wird ;).

Vorbereitungen und Priorisierungen

Ich starte gerne meine Analysen mit dem URL System, denn an den URLs erkennt man schnell die typischen Krankheiten eine CMS. Nun gibt es sehr viele Weg sich ein paar URLs anzeigen zu lassen, ich nutze gerne den SITE:Domain.tld Befehl um einfach mal ein paar URLs zu bekommen. In Kombination mit INURL:IRGEDNWAS oder auch dem negativem –INURL:IRGENDWAS kann man sich schnell mal ein paar hässliche URLs zeigen lassen.

So teste ich zum Beispiel zuerst immer auf folgende Fehler:

  • GET Parameter (besonders ärgerlich wenn sie bei Filtern und Suchen eingesetzt werden)
  • Groß- und Kleinschreibung
  • Gesperrte URLs über die Robots.txt (besonders ärgerlich wenn Parameter gesperrt werden)

Durch diese Informationen kann man dann Probleme wie zum Beispiel Multiple Title oder Meta-Description besser einschätzen, da ein wildgewordener Parameter dafür verantwortlich sein kann, dass auf einmal die Meta-Description 1.000 Mal vorkommen kann, dies aber durch ein Canonical-tag schnell gelöst werden kann (easy-Workaround-task). Langfristig heißt das aber, dass man eine Lösung für das Parameter Handling finden muss, da der Canonical zwar von den Suchmaschinen wie eine Soft-Weiterleitung interpretiert wird, aber die betroffenen URLs von den Suchmaschinen trotzdem analysiert werden müssen, was wiederum wertvolle Crawler Ressource kostet. Durch das Wissen, dass die Häufigkeit eines Problems durch einen einzigen Fehler behoben werden kann, ist es natürlich auch viel einfacher dies quantitativ einzuschätzen. Also Ideal um auf die Frage „Was kostet uns das und was bringt uns das?“ zu antworten ;).

Die Filter in Onpage.org Zoom!

Eins der neusten Funktionen von Onpage.org Zoom sind die Filter. Ihr könnt nach allem Filtern was ihr euch vorstellen könnt. Den wichtigsten Filter findet ihr oben rechts, ihr könnt es auch die „Ich-gebe-alles-ein-was-ich-will-Box“ nennen denn sie gibt wirklich vieles her. Hier mal ein Beispiel wo ich einfach nach Chanel gesucht habe.

clip_image005

Über diese Suchmaske könnt ihr auch URLs direkt aufrufen und dann die Detail Analyse starten, also ideal wenn ihr einzelne URLs optimieren wollt. Weitere Informationen zu den Grundlagen des OnPage.org Zoom! Filters findet ihr drüben im OnPage.org Zoom Blog im Artikel von Irina.

Nun aber weiter mit dem eigentlichen Thema. OnPage.org Zoom ist eine große Spielwiese und gibt mir die Möglichkeit so einen Filter auf alle Analysen anzuwenden, ich möchte euch daher ein paar dieser Filter zeigen und auch erklären wieso man diese braucht.

Um Filter zu erstellen klickt ihr einfach in einen beliebigen Report und klickt oben auf das große „+ Filter“

clip_image006

Hier bekommt ihr nun das folgende Fenster, was aber unter der Haube noch viel mehr Power versteckt als man vermuten mag:

clip_image007
Filtermöglichkeiten in Onpage.org Zoom!

Klickt man nämlich auf die Drop Downs, sieht man, dass man im Grunde nach allem Filtern kann was man sich nur wünschen kann. Man braucht nur das passende Feld auswählen und kann darunter dann entscheiden ob der gesuchte Wert enthalten ist oder nicht:

clip_image008

Diese Filter kann man einzeln verwenden oder beliebig miteinander kombinieren, aber fangen wir von vorne an.

Index relevante URLs

Es gibt verschiedene Möglichkeiten, eine URL aus dem Index auszuschließen. Einige Methoden blenden die URL nur aus, die anderen lassen die URL gar nicht erst im Index erscheinen. Wenn wir also wollen, dass eine URL nicht im Index erscheint, muss eine oder mehrere der folgenden Bedingungen eintreffen

  • Meta-Robots noindex
  • Canonical auf sich selber oder keinen
  • Status Code 200ok

Meta-Robots noindex

Befindet sich eine URL auf Noindex wird diese zwar in den Index aufgenommen, aber nicht mehr im Suchmaschinen Index angezeigt. Wer also auf Crawler Ressourcen schönen möchte, der sollte auf diese Zahl immer genau schauen und genau beobachten welche URLs es betrifft, da meta-robots NoIndex gerne als Allerheilmittel verwendet wird. Leider wird dabei vergessen dass eine URL auch mit NoIndex von der Suchmaschine analysiert werden muss und so die Crawler Ressourcen eventuell eng werden könnten. Sollte also mal die Frage kommen, warum manche URLs erst sehr langsam indexiert werden oder Veränderungen auf alten URLs erst sehr spät von Google registriert werden, dann schaut euch mal an wie viele URLs via NoIndex (oder auch Canonical-tag) gesperrt worden sind.

In Onpage.org Zoom könnt ihr URLs mit Meta-Robots NoIndex, wie folgt herausfiltern, so dass nur die Index relevanten URLs aufgelistet werden.

clip_image009
Filter: URLs die auf Index gestellt sind

Canonical-tag auf sich selber oder keinen

Der Canonical-tag ist eine Empfehlung den Suchmaschinen befolgen können, aber nicht müssen. In manchen Fällen wird der Canonical falsch oder irreführend verwendet, Google entscheidet daher manchmal selbständig und listet URLs mit einem Canonical-tag auf eine andere URL trotzdem im eigenen Index. Solche Fälle gibt es zwar immer wieder, sind aber im Grunde eine Ausnahmen. Um in Onpage.org Zoom alle URLs herauszufiltern mittels Canonical-tag für den Index relevant sind, suchen wir nach allen URLs die via Canonical-tag auf sich selber verweisen oder keinen Canonical-tag besitzen:

clip_image010
Filter: URLs ohne canonical-tag

clip_image011
Filter: Canonical-tag auf sich selber

Klicken wir nun beim ersten anstatt auf „Speichern & schließen“ sondern auf „Speichern & mehr hinzufügen“ können wir die Filter kombinieren und erhalten dann anschließend folgenden Filter. Bitte achtet dabei, dass der Filter automatisch AND verwendet. Damit ihr beide Filter gleichzeitig verwenden könnt, müsst ihr den Filter im Nachhinein durch einen Doppelklick bearbeiten und das AND durch ein OR ersetzen. Das Ganze sieht dann am Ende wie folgt aus:

clip_image012
Filter: Der Canonical-tag verweist auf sich selber UND besitzt keinen (ACHTUNG: FALSCH! Nicht so verwenden!)

clip_image013
Doppelklick auf den Filter öffnet die Editorfunktion

clip_image014
Filter: Der Canonical-tag verweist auf sich selber oder besitzt keinen = Index Relevant

HTTP Header 200OK

URLs können verschiedene Status Codes haben, 404 bedeutet eine URL wird nicht mehr gefunden (Google prüft 404 auch noch viele Jahre später, also macht euch keine Hoffnungen … blödes Google), oder 500er sind Serverfehler und der berühmte 301 ist eine Weiterleitung wie sie im SEO-Lehrbuch steht. Status Codes sind daher sehr wichtig und es sollte immer darauf geachtet werden, dass hier auch alles stimmt, denn Soft-404 sind nicht cool, ganz und gar nicht.

clip_image015
Filter: Listet alle URLs mit HTTP Header Status Code 200OK

URL nicht via Robots.txt gesperrt

Leider wird heute noch auf vielen Webseiten die Robots.txt falsch eingesetzt, denn die Robots.txt verhindert nicht, dass eine URL im Index landet (sie landet trotzdem im Index und auch in den Suchergebnissen) sondern sie verhindert nur, dass die Suchmaschine auf diese URL zugreifen darf.

Das Ganze sieht dann wie folgt aus:

clip_image016

Linkpower wird zwar an alle URLs vererbt, URLs die aber via Robots.txt gesperrt worden sind erhalten keine Linkpower oder besser gesagt, sie geht verloren. Vor einigen Jahren ging das PageRank Sculpting sehr gut, damals konnte man nämlich mit Robots.txt und internem NoFollow die Linkpower dorthin lenken wo man sie gebraucht hat. Die Zeit ist leider vorbei und die Robots.txt macht eher SEO Probleme, anstatt zu helfen. Wer mehr zu dem Thema erfahren möchte, empfehle ich übrigens den Artikel von Stefan Fischerländer. Der Artikel ist zwar von 2012 aber immer noch aktuell, also wenn noch nicht geschehen, lesen!

Um URLs die nicht via Robots.txt gesperrt sind, filtern wir also wie folgt:

clip_image017
Filter: URLs die nicht Via Robots.txt gesperrt sind

Fazit – Alles zusammen

Um uns einen guten Überblick über die Seite zu machen, so wie Google sie aktuell sieht kombinieren wir alle Filter miteinander. Dabei tragen jeden Filter nacheinander an (Reihenfolge ist egal) und drücken jedes Mal auf „Speichern & mehr hinzufügen“ und erhalten am Ende den folgenden Filter:

clip_image019

  1. Hier könnt ihr Filter speichern
  2. Gespeicherte Filter können hiermit abgerufen werden
  3. Wenn euch einen Filter gerade nicht braucht, einfach damit kurz löschen. Sehr hilfreich wenn die Frage kommt „Was hat es denn für folge wenn wir das NoIndex wegnehmen?“

Ich nenne diesen Filtern gerne den Zeige-Mir-Alle-Index-Relevanten-URLs-Filter, nicht gerade sehr kreative aber sehr nützlich. Wie nützlich zeige ich auch im Abschnitt Filter Einsatzmöglichkeiten, weiter unten.

Impressum, Datenschutz, AGBs

Datenschutz, AGBs und Impressum sollte eigentlich auf jeder E-Commerce Seite enthalten sein und von jeder Seite aus verlinkt werden und wie ihr sicherlich alle wisst, sollte dies nicht nur aus Usability Gründen passieren ;).

Zunächst identifizieren wir die Namen unserer drei Seiten und gehen dann in den Report Architektur >> Status Codes. Natürlich könnt ihr auch andere Reports nutzen, aber für das Setup ist damit am einfachsten. Klickt nun oben auf „+ Filter“ und tragt unter URL + enthält den URL Namen eures Impressums, danach klickt ihr auf „speichern & mehr hinzufügen“ und die URL eurer AGBs und Datenschutz. Um eventuellen Duplicate Content zu identifizieren, könnt ihr hier auch den <title> verwenden.

clip_image020
Filter:
URL enthält das Wort „Impressum“

clip_image021
Alternative-Filter: Title enthält das Wort „Impressum“

Ihr merkt es gibt je nach Situation und CMS unterschiedliche Ansätze. Falls ihr euch nicht sicher seid, nimmt am besten den <title> Filter und vergleicht ihn mit dem URL-Filter.

Wenn ihr alle Filter erstellt habt, denkt immer daran, dass AND durch ein OR zu ersetzen, damit die Filter auch miteinander kombinierbar gemacht werden können.

clip_image023

Nachdem ich den Filter angelegt habe, sehe ich unten gleich die passenden URLs:

clip_image025

Wir sehen es gibt 2 URLs zu viel, zwar ohne OPR und nur mit einem eingehenden Link. Die Prio für diesen Task wäre niedrig, aber wenn man es unter 5 min fixen könnte, dann einfach einen Canonical-tag drauf oder auf Noindex setzen und das Thema ist vergessen.

Zum Vergleich die gleiche Ansicht nur auf <title> Filter Ebene:

clip_image027

Wir sehen auch, dass Datenschutz, Impressum und AGB alle gleich viele eingehende Links haben, somit können wir davon ausgehen, dass diese auch von überall verlinkt worden sind. Wer sichergehen will, kann sich ja einen Filter anlegen ;).

Internes nofollow

Nofollow war einmal die Möglichkeit die Linkpower eine Seite optimal zu steuern, heute macht man dasvia JavaScript, wobei Google auch hier immer besser wird und man immer kreativer werden muss. Als PageRank Sculpting noch funktionierte, war internes nofollow richtig beliebt (ach waren das noch Zeiten, aber diese sind vorbei, darum KEIN internes NOFOLLOW mehr verwenden. Unsere große Frage ist „Wo gibt es auf meiner Seite nofollow und wo verschwände ich wichtige Linkpower?

Um diese Frage zu beantworten gehen wir zuerst auf den Report Links >> Linktexte >> Link Details und erstellen dort unseren ersten Filter:

clip_image028
Filter: Zeig mir alle Links an, die per nofollow angelinkt werden

Das Ergebnis sieht dann so aus:

clip_image030

Nun sehen wir, dass immer wieder der Anchor „Kasse“ hier sehr häufig vorkommt. Das Problem lässt sich also sehr schnell lösen (Ticket: „Nofollow bei Kasse entfernen“), aber wir wollen sehen ob noch mehr dahinter steckt, also filtern wir einfach mal alles mit dem Anchor „Kasse“ aus:

clip_image031

Nun aktualisieren wir unseren Filter und erhalten diesen Filter:

clip_image032

Das Ergebnis zeigt uns, NoFollow wird vermutlich auch bei der Suche oder präziser ausgedrückt, bei dessen Filtern verwendet:

clip_image034

Schaut man sich eine URL mit einem Nofollow-Highlighter an sieht man das Problem:

clip_image036

Auch dieses Problem ist einfach zu lösen, denn das Entfernen des NoFollow würde nichts groß ändern, denn NoFollow verbietet nur den Zugang zu einem einer URL, wenn diese von woanders verlinkt wird, landet sie trotzdem im Index. Außerdem verpufft die Linkpower auf dieser Seite an den NoFollow Links, somit wäre es sogar was gutes dies zu entfernen.

Nun haben wir für unser „NoFollow bitte auf folgenden Seiten entfernen“ bereits zwei wichtige ToDos mit einem positiven Effekt (OPR muss fliessen!). Nun können wir unseren Filter auch noch um das Wort „Filter“ erweitern und noch tiefer in die Nofollow Problematik eintauchen, bis wir alle NoFollow Fehler identifiziert haben und daraus ein größeres Ticket erstellt haben. Unsere IT wird happy sein, weil sie nur ein Task abarbeiten muss, wir sind glücklich weil wir einmal der IT alle Informationen auf einmal geliefert haben und das in Rekordzeit und unsere Webseite ist glücklich weil wir noch mehr aus ihr geholt haben. ALLES SIND HAPPY!

Filter Einsatzmöglichkeiten

Nun haben wir einen Filter der uns nur URLs anzeigt die auch für den Index bestimmt sind, wie können wir diesen nun Effizient nutzen?

Duplikate H1 ein Problem?

Gehen wir zum Beispiel in das Menü Inhalt/Body >> Überschriften // Duplikate. Bei meinem Testprojekt sehen wir hier, dass bei den Templates keine schlaue Wahl bei den Überschriften getroffen worden wurde:

clip_image038

Einige Überschriften gibt es bei fast 5.000 URLs, eigentlich ein sehr großes Problem, aktivieren wir nun aber unseren vorher angelegten Zeige-Mir-Alle-Index-Relevanten-URLs-Filter (Jetzt wisst ihr warum der Name so praktisch ist ;)) um uns nur die Index-relevanten URLs anzeigen zu lassen, sehen wir, dass unser Problem gar nicht mehr so dramatisch ist wie gedacht:

clip_image040

Das schöne bei diesem Filter, wir können dem Problem durch das deaktivieren einzelner Filter auf den Grund gehen. Nehme ich den Canonical-tag Filter weg (Rotes X dahinter), sehen wir, dass die Anzahl der URLs auf die Ursprungszahl zurückspringt. Das Problem ist also nur dank dem Canonical-tag nicht so schlimm wie ursprünglich angenommen.

In diesem Fall wurde die Seite nämlich so programmiert, dass auf jeder Paginierungsseite ein Canonical-tag auf die erste Seite verweist. Das ist eine Methode die man bei Google-News Optimierung gerne nutzen kann, aber bei Online-Shops oder Content-Seiten sollte man diese Technik nicht verwenden, da sonst auf die Artikel, die sich auf Seite 2+ befinden keine Linkpower mehr vererbt wird.

Klickpfad Analyse für Index Relevante URLs

Ähnliche Betrachtung könnt ihr auch mit dem Klickpfad machen. Der Klickpfad zeigt uns dabei, wie weit in Sachen Klicks, eine URL am kürzesten von der Startseite entfernt ist. Da die Startseite meistens die stärkste Seite ist, sollten die Unterseiten in der Regel möglichst schnell erreichbar sein. Bedenkt aber immer, dass es sich hierbei um eine Faustregel handelt und vielleicht völlig unwichtige Seiten im Grunde keine Linkpower von der Startseite brauchen (warum solltet ihr diese auch von dort aus verlinken?).

Unsere Webseite zeigt sich aktuell wie folgt:

clip_image042

Wir sehen, dass alle URLs die gecrawled worden sind mit maximal 3-4 Klicks erreichbar sind. Somit eigentlich ganz ok. Aktivieren wir nun unseren Filter für die Index-relevanten-URLs:

clip_image044

Sehen wir sofort den Unterschied. Aktuell befindet sich die komplette Aufmerksamkeit auf ca. 600 URLs die alle durch 2-3 Klicks erreichbar sind. Durch einen Klick auf das Diagramm aktivieren sich übrigens weitere Filter, und so können wir uns die URLs angucken die mit 3 Klicks erreichbar sind und natürlich deren OPR:

clip_image046

Wir sehen hier sehr gut, dass einige URLs einen sehr hohen OPR haben, während andere obwohl sie über 3 Klicks erreichbar sind einen sehr niedrigen haben. Ein deutliches Indiz dafür, dass hier die Interne Linkpowerverteilung nochmal gut überdacht werden muss und eine Bestätigung, dass der Canonical-tag ebenfalls anders eingesetzt werden muss.

Fazit

Dies sind nur einige Beispiele wie man die Filter vom neuen OnPage.org Zoom verwenden kann, gerne erweitere ich diesen Artikel noch durch weitere Beispiele, wenn ihr also Ideen oder Fragen habt wie man einen bestimmten Task mit OnPage.org Zoom! lösen kann, sagt Bescheid.

Gerne hätte ich auch die Termgewichtung getestet, aber der Shop hat leider zu wenig Content ob dieses mächtige Tool effektiv zu nutzen, aber das würde den eh viel zu langen Artikel noch sprengen und darum ist es wohl besser das Tool in einem eigenen Artikel zu vorzustellen. Aber zum Schluss noch einen Tipp den Marcus Tandler und Tina Eyth im letzten OnPage.org Zoom! Webcast erwähnt haben und vom Prof. Dr. Mario Fischer kommt, das Eigene Snippet Tool. Das findet ihr unter Einstellungen und mit dieses Tool solltet ihr eigentlich immer nutzen um zu kontrollieren ob:

  • Google Analytics oder andere Tracking Tools auf allen Seiten vorhanden?
  • Facebook Admin ID und OpenGraph überall eingebaut
  • Auf welchen Seiten ist zum Beispiel keine IVW Verpixlung vorhanden?
  • Gibt es auf irgendeiner Seite eine DIV mit dem Namen „SEO“

So nun aber Schluss noch ein Affiliate Link zu OnPage.org Zoom!, wenn ihr es also testen wollte und dass durch diesen Artikel gemacht habt, dann würde ich mich freuen wenn ihr diesen Link nutzen würdet (Affiliate-Link). Ansonsten einfach auf www.onpage.org gehen. CIAO & Viel Spaß!

Weitere Artikel zu dem OnPage.org Filtern:

Feedback, Fragen, Ideen?

6 Kommentare