Skip to content

Offpage und Onpage Optimierung

Definition

Die Offpage und die Onpage Optimierung (auch genannt Offsite bzw. Onsite) sind ein wesentlicher Bestandteil der Suchmaschinenoptimierung. Sie beinhalten sowohl die internen als auch die externen Maßnahmen, die für die Optimierung einer Website notwendig sind. Bei der erstmaligen Optimierung ist die Onpage Optimierung der Offpage Optimierung vorerst vorzuziehen, da eine technisch und inhaltlich repräsentative Landingpage maßgeblich für die Generierung von Links ist. Die Onpage Optimierung ist verantwortlich für den Inhalt, die Struktur und die technische Aufbereitung einer Website. Sie beinhaltet alle Maßnahmen, die direkt auf der Website getätigt werden. Die Offpage Optimierung hingegen befasst sich mit allen externen Faktoren die die Auffindbarkeit der Website beeinflussen können. Sowohl die Onpage Optimierung als auch die Offpage Optimierung sind maßgeblich und können das Ranking auf den SERPs ({SERP}) der Suchmaschinen beeinflussen.

Ihr

Ansprechpartner

Khalil Agheli Zadeh Geschäftsführer
Khalil Agheli Zadeh
Geschäftsführer

Onpage Optimierung

Onpage Optimierungen sind Maßnahmen, die direkt auf der Website vorgenommen werden. Sie beziehen sich dabei auf unterschiedliche Bereiche, welche die Internetpräsenz verbessern können. Zu diesen Bereichen gehören unter anderem ein valides HTML Dokument, ein einzigartiger Content, die korrekte Nutzung der Meta Tags und eine optimale Einbindung von Medien.

Die Strukturierung des Quelltext ist für jede Website maßgeblich, da eine Suchmaschine ausschließlich textbasiert arbeitet. Der Code kann also nur soweit ausgewertet und indexiert werden, sofern er auch für den Crawler nachvollziehbar ist. Weitere Faktoren, wie zum Beispiel der optische Gesamteindruck eines Nutzers bleiben vom Crawler unberücksichtigt. Es ist daher wichtig, die Website für den Crawler technisch optimal aufzubauen, sodass sie auch gut lesbar und indexierbar ist.

On-Page_Off-Page

Zur Strukturierung eines Quelltextes gehören ebenso die Metadaten einer Website. In jedem HTML Code sind Metadaten integriert, die Auskunft über den Inhalt und den Betreiber der Website geben sollen. Typische Metadaten (werden im Quellcode als Meta Tags bezeichnet) sind der Titel, der Autor oder die Beschreibung einer Website. Eine Suchmaschine verwendet diese anschließend für die Auflistung in ihren SERPs, sofern der Website Betreiber keine weiteren Angaben dazu getätigt hat.

Eine weitere Maßnahme der Onpage Optimierung ist der Content einer Website. Aufgabe eines Website Betreibers ist es, kontinuierlich themenrelevanten und einzigartigen Content (eng. “unique content”) zu liefern. Anhand der Verwendung von Keywords prüft der Suchalgorithmus anschließend den Inhalt auf seine Themenrelevanz. Allerdings sollte die Verwendung von Keywords in einem natürlichen Verhältnis zum Content der Website bestehen. Weist diese eine unnatürliche Keywordanzahl auf, wird dieses Verhalten vom Suchmaschinenprovider abgestraft. Die Qualität einer Website wird anschließend anhand ihres Trust gemessen. Dieser wird als Indikator für das Vertrauen, dass eine Suchmaschine einer Website entgegen bringt, gewertet. Der Content sollte auch eine nachvollziehbare inhaltliche Strukturierung aufweisen. Dazu gehört zum Beispiel die Priorisierung von Überschriften. Zu empfehlen ist, für die gesamte Website nur eine Hauptüberschrift zu verwenden und für weitere Beträge eine Überschrift, die der Hauptüberschrift unterzuordnen ist. Dadurch ist der Inhalt der Seite für den Crawler besser zu lesen und auszuwerten.

Die interne Verlinkung und die Ladegeschwindigkeit sind weitere Instrumente der Onpage Optimierung. Durch das interne Verlinken einer Domain, kann auf der Website weiterer Traffic generiert werden. Dieser wird wiederum vom Crawler bemerkt und im Suchalgorithmus berücksichtigt. Das kann anschließend eine Auswirkung auf das Ranking einer Website haben. Weitere Informationen zu der internen Verlinkung erhalten Sie in unserem Beitrag zum Anchor text ({Anchor text}). Die Ladegeschwindigkeit ist ein wesentlicher Faktor der Usability einer Website. Nutzer bewerten eine Website mit einer langsamen Ladegeschwindigkeit als negativ und dadurch kann sich die Absprungsrate erhöhen. Es kommt also darauf an, dem Nutzer innerhalb von kurzer Zeit, die gewünschten Inhalte zu liefern, nur so gewinnt die Seite an Attraktivität für den Nutzer und ist somit weiterzuempfehlen. Die Ladegeschwindigkeit wird unter anderem auch als Performance der Seite bezeichnet.

Um sicherzustellen, dass die gesamte Website in den Suchindex indiziert wird, bietet sich die XML-Sitemap an. Bei der XML-Sitemap handelt es sich um ein XML Dokument, dass auf alle Unterseiten einer Domain verweist und zusätzliche Metadaten (z.B. Prioritäten, Datum, Frequenz, etc.) der Unterseiten enthält sowie Angaben zum verwendeten Zeichencode. Sie wird mit Hilfe des von “Google” bzw. “bing” gestellten Webmasters hochgeladen und kann somit im Suchindex indiziert werden. Eine weitere Möglichkeit zum Hochladen der XML-Sitemap bietet sich in Form einer txt-Datei oder eines RSS Feeds an.

Zuletzt sind der Onpage Optimierung einer Website noch die Robots.txt Datei und die Canonical Tags hinzuzufügen. Jede Suchmaschine nutzt einen Robot (auch kurz genannt: Bot), der die HTML Dokumente einer Website untersucht und anschließend die relevanten Informationen identifiziert. Crawler und Robot sind in dieser Hinsicht eng miteinander verbunden. Der Crawler ist dabei verantwortlich für das Auffinden neuer Websites anschließend werden diese vom Bot der Suchmaschinen gespeichert und der Quelltext wird eingelesen und untersucht. Um dem Robot einer Suchmaschine eine Hilfestellung für das Untersuchen einer Website zu bieten, können Robots.txt Dateien erstellt werden. Diese fassen das Suchverhalten eines Robots für die entsprechende Website zusammen. Der Website Betreiber kann somit sicherstellen, dass die gewünschten Inhalte demnach vom Robot identifiziert werden. Für den Robot einer Suchmaschine ist eine Robots.txt Datei ebenfalls von vorteil, da sie einen geringeren Aufwand mit sich bringt.

Die Canonical Tags sind im Quelltext einer HTML datei integriert. Sie beinhalten die Angabe einer bevorzugten URL, die repräsentativ für sich im Content ähnelnde URL zu verwenden ist. Die Angabe der Canonical Tags ist für die Website maßgeblich, da somit der Suchmaschine offenbart wird, welche URL kopierten (auch genannt: Duplicate Content) entspricht und welche dem originalen.

Offpage Optimierung

Die Offpage Optimierung befasst sich mit allen externen Maßnahmen, die für die Optimierung einer Website vorgenommen werden. Diese externe Maßnahmen beinhalten hauptsächlich den Aufbau einer optimalen Linkstruktur. Diese lässt sich mit Analysetools wie ahref oder sistrix untersuchen. Grundsätzlich gilt hierbei, je mehr Links auf eine Website verweisen, desto höher ist die Popularität der Seite. Suchmaschinen wie zum Beispiel Google untersuchen ebenfalls den Linkaufbau der jeweiligen Website. Sie haben ihren Suchalgorithmus mittlerweile soweit ausgebaut, dass sie einen künstlichen Linkaufbau von einem natürlichen unterscheiden können. Daher ist das Verhältnis der unterschiedlichen Linkarten zu beachten. Weitere Informationen dazu, erhalten Sie in unserem Beitrag Anchor text ({Anchor text}).

Jeder Link der auf eine Website verweist, wird von der Suchmaschine als eine Empfehlung bewertet. Dies lässt sich mit einem Beispiel aus der Wissenschaft verdeutlichen:

Es wird angenommen, dass eine gewisse Anzahl von Studenten eine wissenschaftliche Ausarbeitung zum Thema Urheberrecht verfassen soll. Nach Prüfung der Aufsätze stellt sich heraus, dass ein bestimmtes Werk überdurchschnittlich oft zitiert wurde. Da dieses Werk einer überdurchschnittlichen Anzahl von Zitationen entspricht, kann hier von einer Empfehlung ausgegangen werden.

Anschließend wird die Linkquelle zur Bewertung des Links untersucht. Mit der Linkquelle ist hiermit die Webseite gemeint, auf welcher der Link platziert wurde. Für die Bewertung der Linkquelle sind verschiedene Faktoren zu nennen: Das kann zum einen der Trust einer Seite und zum anderen die Autorität einer Seite sein. Genießt die Website eine hohe Autorität, wird der Link dementsprechend bewertet. Der Trust entspricht hierbei dem Vertrauensgrad den die Website gegenüber einer Suchmaschinen genießt. Er wird daran gemessen, wie kontinuierlich qualitativ relevante Inhalte geliefert werden. Ein weiterer Faktor für den Trust ist das Alter der Domain. Es ist davon auszugehen, dass eine langjährig bestehende Domain besser bewertet wird, als ein kürzlich erstellte.

Ein weiterer Faktor für die Bewertung eines Links bzw. die Bewertung der Linkstruktur einer Website ist der Content in dessen der Link eingebettet ist. Es gilt zu beachten, dass der Link ausschließlich in einem themenrelevanten Inhalt platziert ist. Trifft dieser Fall nicht zu und wird dies von der Suchmaschine bemerkt, straft die Suchmaschine die URL dementsprechend ab. Ebenfalls sollte der Link eine eindeutige Bezeichnung beinhalten um dem Nutzer das Ziel des Links kenntlich zu machen. Die Verwendung von entsprechend passenden Keywords ist hierbei zu empfehlen. Zuletzt ist die die Position des verweisenden Links zu bewerten. Es hat sich herausgestellt, dass im Footer oder Header platzierte Links oftmals eine geringere Priorität zufällt, als Links die im Content platziert werden. Dem Content fällt demnach für den Nutzer eine höhere Relevanz zu, da dieser mit den nötigen inhaltlichen Informationen ausgestattet ist. Der Header und der Footer umschließt meist den Content einer Website. Die Inhalte dessen bleiben meist unverändert bzw. verändern sich nur gering. Diese sind also oftmals nicht relevant für den Nutzer.

Da eine Suchmaschine bzw. der Robot einer Suchmaschine ausschließlich textbasiert arbeitet, wertet er die Links einer Website über den Quelltext ihrer HTML Dokumente aus. Innerhalb des Linktags besteht die Möglichkeit, den Link mit dem Befehl “nofollow” auszustatten. Das ist ein Hinweis für den Crawler, den Link nicht weiter zu verfolgen. Gründe für den Befehl “nofollow” können zum Beispiel sein, dass es sich bei dem verweisenden Link um Werbung handelt die für den Crawler nicht weiter relevant ist. Es kann sich dabei allerdings auch um nicht vertrauenswürdigen Content handeln der zu Lasten des Trust einer Seite führen könnte. Zuletzt wird angenommen, dass der Befehl “nofollow” für das Nichtverfolgen interner Links verwendet wird. Seitenbetreiber wollen hiermit vermeiden, dass interne Links zum Impressum oder Kontakt weiter verfolgt werden, da sie für den Crawler nicht weiter relevant sind.

Für den Aufbau einer guten Linkstruktur können die Content Syndication und der Linkbait genutzt werden. Die Content Syndication beinhaltet die mehrfache Verwendung von Informationen in Form von Text- oder Bildmaterial. Ein Beispiel zur Veranschaulichung gibt die Plattform für Informationstechnik “Golem.de”. Auf dieser Plattform werden mediale Inhalte unterschiedlicher IT-Unternehmen platziert, die anschließend auf die Website des Unternehmens verweisen. Durch die Platzierung dieser Inhalte können für die Linkstruktur einer Website weitere Links generiert werden. Der Linkbait soll ebenfalls der positiven Beeinflussung des Linkaufbaus dienen. Das Wort “bait” kommt aus dem Englischen und lässt sich mit dem Wort “Köder” übersetzen. Der Linkbait fungiert also in Form eines Köders der auf sozialen Netzwerken wie Twitter, Youtube, LinkedIn oder Pinterest platziert werden kann. Er soll Nutzer dazu ermutigen diesem Link zu folgen, um weiteren Traffic auf der Seite zu generieren. Zuletzt soll er dazu führen, dass Nutzer in Form von weiteren Verlinkungen Ihre Website weiterempfehlen.

Onpage und Offpage Optimierung im Vergleich

Onpage OptimierungOffpage Optimierung
Unterschiedeinterne Maßnahmen:

- Strukturierung des HTML Dokuments (Code, Layout, Metadaten, Canonical Tags, Robots.txt, etc.)

- Optimierung des Content (Ziel: Unique Content)

- Effiziente Bezeichnung des Linktextes (zielführend)
externe Maßnahmen:

- größtenteils Backlinks

- Erzielung einer optimalen Backlinkstruktur

- Platzierung von Linkbaits

- Aufbau einer Content Syndication
GemeinsamkeitenBestandteil der Suchmaschinenoptimierung
Benötigen kontinuierlich Updates
Onpage und Offpage sind voneinander abhängig

Fazit

Die Onpage und die Offpage Optimierung sind zwei wesentliche Bestandteile der Suchmaschinenoptimierung. Sie sind jedoch in ihrem Wesen klar voneinander zu trennen. Die Onpage Optimierung befasst sich mit allen internen Maßnahmen, die direkt auf der Website vorgenommen werden können und die Offpage Optimierung mit allen externen Maßnahmen.

Nur durch die Optimierung der internen als auch der externen Maßnahmen einer Website können diese ein optimales Rankingergebnis erzielen. Eine Website deren HTML Dokument vom Robot einer Suchmaschine gut lesbar ist reicht allein für die Suchmaschinenoptimierung einer Website nicht aus. Da Suchmaschinen eine Website nicht ausschließlich nach einem sauber geschriebenen Code und einem einzigartigen Content bewerten. Für das Ranking einer Suchmaschine sind viele Faktoren heranzuziehen, welche das genau sind, wird von Suchmaschinenprovidern allerdings geheim gehalten. Es ist jedoch davon auszugehen, dass ein Zusammenspiel von Onpage und Offpage Optimierungsmaßnahmen das Rankingergebnis einer Website positiv beeinflussen können.

Es ist daher zu empfehlen, die Offpage und die Onpage Optimierung kontinuierlich zu optimierung, da eine Suchmaschine seinen Suchalgorithmus stetig ausbaut und daher die aktuelle Positionierung in den SERPs für URLs variable ist.

Bei Fragen oder Interesse nehmen Sie bitte einfach Kontakt zu uns auf.

SEO Deutschland – Die kreative SEO Agentur