- The Silicon Valley Experiment - https://www.siliconvalleyblog.de -

SES 2010: Bauen wir uns einen Link

Handarbeit "Link Building"

Handarbeit "Link Building"

Wie nicht anders zu erwarten, war Link-Building ein Thema, das in mehreren Veranstaltungen angesprochen wurde. Verlinkungen auf das eigene Angebot ist jene Massnahme, die auf Dauer die meiste Auswirkungen auf Traffic, Convertion und Suchmaschinenranking besitzt.

In der Veranstaltung „How to Become a Link Magnet“ haben – unter der Moderation von Brett Tabke, CEO, WebmasterWorld –  die Teilnehmer Aaron Kahlow vom Online Marketing Summit, Rand Fishkin, CEO von SEOmoz [1] und Jim Boykin, CEO von WeBuildPages über die Entwicklung im Bereich der Beurteilung und Aufbau von Links [2] diskutiert.

Schon bei heutigen SEO-Tools kann man feststellen, dass nicht nur einfach mehr Backlinks gezählt werden, sondern eine weitergehende Unterscheidung stattfindet. Im ersten Schritt werden die Backlinks und die Referer Domains, Referer Unique IPs unterschieden. So können schnell mehrere Backlinks von ein und der selben Domain erfolgen. Falls das Problem seine Ursache in doppelten Content hat, ist dies sogar sehr wahrscheinlich.

Als Beispiel sei hier eine norddeutsche Stadt genannt, die beeindruckende 929.161 Backlinks besitzt. Allerdings kommen diese „nur“ von 3.696 Referer Domains von 1.797 Referer Unique IPs. Bei einer tieferen Analyse ergibt sich sogar, dass von diesen Backlinks 727.561 von der Tourismus-Website der Stadt kommen, die selbst nur einen mittleren Rank besitzt und von allen Backlink-Domains nur 362 eine wirkliche Auswirkung auf den Erfolg der Website haben würden. Erst unter Berücksichtigung solcher Informationen kann man den Bestand an Backlinks objektiv beurteilen und Massnahmen einleiten.

Nutzer suchen Vertrauen, nicht Klicks

Dazu kommt, dass auch die Vertrauenswürdigkeit einer Webseite berücksichtigt wird. So meinte Jim Boykin, dass er vertrauenswürdige Links wie die von wissenschaftlichen oder Regierungswebseiten stärker gewichtet. Sicher sollten auch klassische journalistische Medien dazuzählen.

Der „Link Ninja“, wie er sich in Linkedin [3] auch bezeichnet, nutzt dabei diverse Kriterien um zu entscheiden, ob ein Link den Anspruch eines „Trust Link“ erfüllt. Diese reichen vom Alter der Webseite über die Analyse des Rankings bin hin zu Heuristiken, um Blogs und Social Media Plattformen von Newsquellen zu unterscheiden.

Der Geschäftsführer von SEOmoz legte wiederum dar, wie nach seiner Ansicht Link Magnete funktionieren sollten. Es sei notwendig, dass die Verknüpfung emotional oder physisch eine Belohnung  für die  eigene Webseite darstellt.  Etwas, dass sie benötigen, um einen Anreiz zu schaffen. Zusammengefasst sollte die Webseite, die man als Link Magnet positionieren will, folgendes nutzen:

Er nannte diverse Websites, wie Vimeo, okcupid, Techmeme Leaderboard [4] und andere, die das Prinzip erfolgreich umgesetzt haben.

Darth SEO

Natural vs Broker Links

Natural vs Broker Links

Natürlich gibt es auch Möglichkeiten der Black Hat SEO, nur besteht hier die Gefahr, von den Suchmaschinen dafür bestraft zu werden. Dieses „Penalizing“ ist ein reales Problem. Wenn man von Google bestraft wurde, ist es schwer, diese Bannung wieder zu entfernen. Natürlich kann man sich an Google wenden. Es ist möglich zu sagen, dass man es nie wieder tut. Wenn das nicht reicht, kann man versichern, dass der SEO Agentur gekündigt wurde. Sollte das immer noch nicht helfen, kann man halt sagen, dass der Mitarbeiter der die SEO Agentur beauftragt hat, ebenfalls gefeuert wurde. Aber selbst eine der Fortune 500 Companies, der dies mal passierte, musste lange, lange,  sehr lange warten und erklären.

Die Liste der beliebtesten Gründe gebannt zu werden:

Linkaufbau ist also immer noch ein hartes Geschäft. So kann man bei der Suche nach Backlinks nur zum Teil automatische Tools nutzen, um z.B. Kandidaten zu finden, bei denen man ggf. einen Backlink platzieren kann. Aber bei der Recherche der Kandidaten, fallen häufig 80% raus. Schreibt man jene an, die übrig bleiben, ist eine Conversion Rate von 5% keine Seltenheit. Um den Erfolg zu erreichen, sind häufig weitere Recherchen notwendig, um die Aufmerksamkeit des zuständigen Webmaster zu erlangen. Beispielsweise indem man ihn auf andere Quellen neben der eigenen Webseite aufmerksam macht, Browserprobleme meldet oder ihn auf  defekte Links seiner Webseite hinweist. Darüber hinaus ist die Arbeit deswegen auch Personalintensiv. So arbeiten z.B. bei WeBuildPages 45 „Link Ninjas“ und über 100 Schreiber, um die Kunden zu bedienen. Kein Wunder, dass bei entsprechenden Dienstleistern die Preise für 10 neue, qualitativ hochwerte Backlinks pro Monat bei bis zu 2500 USD liegen. Pro Monat natürlich.

Die Firma AdGooroo hat in den Zusammenhang ein Tool [5] vorgestellt, welches beim Link Building unterstützen soll. Wie schon WeBuildPages, sieht auch AdGooroo das Problem, dass „blindes“ Link Building ja zu Backlinks, aber nicht zwingend zu Traffic oder gar Umsatz führen müssen.

Das Tool basiert auf der Bow-Tie-Theorie. Die Basis ist dabei nicht der Pagerank der potentiellen Linkquelle, sondern die Einstufung, in wie weit die Inhalte zum Ziel passen. Das Tool sucht wöchentlich nach Links und weist diesen einen Score zu. Darüber hinaus findet eine Einstufung nach primären Kriterien (Trust oder Spam) und nach sekundären Kriterien (Social, Georaphisch) statt. Das Ziel ist qualitative Backlinks zu finden, festzustellen ob die Linkquelle passt (falls notwendig, besonders für lokale Händler wichtig) oder ob sich derder Link auf sozialen Netzen, Bookmarkingsites, usw. befindet.

Interne Links: Gefahr Duplicate Content

Panel "Double Content" [6]

Panel "Double Content"

Ein weiteres Panel [7] befasste sich mit dem Thema der internen Verlinkung und der Nutzung mehrerer Domains für ein Angebot. Bei diesen internen Link kann man schnell in die Falle der doppelten Inhalte [8] laufen. Dieser kann schnell zu Problemen wie z.B. der potentiellen Abstufung bei Google führen. Darüber hinaus indiziert Google nur endlich viele Seiten einer Webseite. Es ist vom Nachteil, weil dieser Crawler Cap [9] laut Shari Thurow [10] of Omni Marketing bei 1000 Seiten pro Webseite liegt. Ursachen für doppelten Content können vielfältig sein und sind nicht immer offensichtlich:

Die meisten Probleme kann man durch die Robot-Datei lösen: Suchergebnisse, Printer-friendly-Seiten und andere Domains ausser der Hauptdomain in robots.txt [12] oder Robots Metatags [13] und Canonical Tags [14] ausschliessen.

Diese Massnahmen können extrem positiven Einfluss haben. In einigen Fallbeispielen konnten laut Kathleen Pitcher, von Acquisitions Marketing folgende Ergebnisse erzielt werden:

Die Besuche über natürliche Suche stiegen im Durchschnitt um 72%. Bei den wichtigsten Keywords war der Effekt noch größer. Beispielsweise in Zusammenhang mit den erwähnten Game-Website stiegen die Besuche z.B. bei „online games“ um 198% und bei „free online games“ um 99% an.

Michael Gray [15], vom Atlas Web Service, gab ebenfalls Tipps. Er riet dazu, Inhalte die man  an Partner zur Integration in deren Webseiten weitergibt,  leicht zu modifizieren. Da die Inhalte miteinander verwandt sind, kann dies das Ranking der eigenen Webseite durch doppelten Inhalt also sogar positiv beeinflussen. Dazu machte er am Rande noch folgende Bemerkung:

Its very hard to tell bad SEO from good sabotage.

Ob das schon Black Hat SEO Massnahmen sind kann man als Ansichtssache [16] bezeichnen.

Und was gibts noch ?

Weitere Massnahmen für das Link Building können dabei auch Social Media Kampagnen liefern. Dies wird in einen weiteren Artikel über die Wechselwirkungen zwischen Social Media und SEO beschrieben.  (FS [17])