Wie nicht anders zu erwarten, war Link-Building ein Thema, das in mehreren Veranstaltungen angesprochen wurde. Verlinkungen auf das eigene Angebot ist jene Massnahme, die auf Dauer die meiste Auswirkungen auf Traffic, Convertion und Suchmaschinenranking besitzt.
In der Veranstaltung „How to Become a Link Magnet“ haben – unter der Moderation von Brett Tabke, CEO, WebmasterWorld – die Teilnehmer Aaron Kahlow vom Online Marketing Summit, Rand Fishkin, CEO von SEOmoz [1] und Jim Boykin, CEO von WeBuildPages über die Entwicklung im Bereich der Beurteilung und Aufbau von Links [2] diskutiert.
Schon bei heutigen SEO-Tools kann man feststellen, dass nicht nur einfach mehr Backlinks gezählt werden, sondern eine weitergehende Unterscheidung stattfindet. Im ersten Schritt werden die Backlinks und die Referer Domains, Referer Unique IPs unterschieden. So können schnell mehrere Backlinks von ein und der selben Domain erfolgen. Falls das Problem seine Ursache in doppelten Content hat, ist dies sogar sehr wahrscheinlich.
Als Beispiel sei hier eine norddeutsche Stadt genannt, die beeindruckende 929.161 Backlinks besitzt. Allerdings kommen diese „nur“ von 3.696 Referer Domains von 1.797 Referer Unique IPs. Bei einer tieferen Analyse ergibt sich sogar, dass von diesen Backlinks 727.561 von der Tourismus-Website der Stadt kommen, die selbst nur einen mittleren Rank besitzt und von allen Backlink-Domains nur 362 eine wirkliche Auswirkung auf den Erfolg der Website haben würden. Erst unter Berücksichtigung solcher Informationen kann man den Bestand an Backlinks objektiv beurteilen und Massnahmen einleiten.
Nutzer suchen Vertrauen, nicht Klicks
Dazu kommt, dass auch die Vertrauenswürdigkeit einer Webseite berücksichtigt wird. So meinte Jim Boykin, dass er vertrauenswürdige Links wie die von wissenschaftlichen oder Regierungswebseiten stärker gewichtet. Sicher sollten auch klassische journalistische Medien dazuzählen.
Der „Link Ninja“, wie er sich in Linkedin [3] auch bezeichnet, nutzt dabei diverse Kriterien um zu entscheiden, ob ein Link den Anspruch eines „Trust Link“ erfüllt. Diese reichen vom Alter der Webseite über die Analyse des Rankings bin hin zu Heuristiken, um Blogs und Social Media Plattformen von Newsquellen zu unterscheiden.
Der Geschäftsführer von SEOmoz legte wiederum dar, wie nach seiner Ansicht Link Magnete funktionieren sollten. Es sei notwendig, dass die Verknüpfung emotional oder physisch eine Belohnung für die eigene Webseite darstellt. Etwas, dass sie benötigen, um einen Anreiz zu schaffen. Zusammengefasst sollte die Webseite, die man als Link Magnet positionieren will, folgendes nutzen:
- Grossartiger Inhalt, möglichst in Verbindungen mit einen Nutzen. Sei es durch Mehrwert im Inhalt oder auch andere Arten wie z.B. Gewinnspiele.
- Emotionaler Inhalt
- Inhalte, die sich leicht verbreiten lassen, also Mailempfehlung an Freunde, Sharen auf Twitter, Facebook, Übernahmfunktion als Bookmark.
Er nannte diverse Websites, wie Vimeo, okcupid, Techmeme Leaderboard [4] und andere, die das Prinzip erfolgreich umgesetzt haben.
Darth SEO
Natürlich gibt es auch Möglichkeiten der Black Hat SEO, nur besteht hier die Gefahr, von den Suchmaschinen dafür bestraft zu werden. Dieses „Penalizing“ ist ein reales Problem. Wenn man von Google bestraft wurde, ist es schwer, diese Bannung wieder zu entfernen. Natürlich kann man sich an Google wenden. Es ist möglich zu sagen, dass man es nie wieder tut. Wenn das nicht reicht, kann man versichern, dass der SEO Agentur gekündigt wurde. Sollte das immer noch nicht helfen, kann man halt sagen, dass der Mitarbeiter der die SEO Agentur beauftragt hat, ebenfalls gefeuert wurde. Aber selbst eine der Fortune 500 Companies, der dies mal passierte, musste lange, lange, sehr lange warten und erklären.
Die Liste der beliebtesten Gründe gebannt zu werden:
- Der Filter, der einen Link als „gekauft“ identifiziert, wird bei der Suchmaschine ausgelöst.
- Die Analyse der Links untereinander führt zu Entdeckung zu einer unnatürlichen Linkverteilung
- Jemand blogt, dass man Links gekauft hat oder versuchte einen zu kaufen.
- Die eigene Website ist auf Platz 1 bei Google für ein wichtiges Keyword ohne die beste Webseite des Planeten zu sein
- Ein Wettbewerber meldet die eigene Webseite als Spam
- Man kauft Links von einen Broker, der an jeden die selben Links verkauft
- Man hat ausser offensichtlich gekauften überhaupt keine Backlinks
- Man fängt an zu laut öffentlich zu erzählen, dass man auf Platz 1 bei Google ist.
- Man meldet Wettbewerber, dass diese Links kaufen – obwohl man es selbst tut.
Linkaufbau ist also immer noch ein hartes Geschäft. So kann man bei der Suche nach Backlinks nur zum Teil automatische Tools nutzen, um z.B. Kandidaten zu finden, bei denen man ggf. einen Backlink platzieren kann. Aber bei der Recherche der Kandidaten, fallen häufig 80% raus. Schreibt man jene an, die übrig bleiben, ist eine Conversion Rate von 5% keine Seltenheit. Um den Erfolg zu erreichen, sind häufig weitere Recherchen notwendig, um die Aufmerksamkeit des zuständigen Webmaster zu erlangen. Beispielsweise indem man ihn auf andere Quellen neben der eigenen Webseite aufmerksam macht, Browserprobleme meldet oder ihn auf defekte Links seiner Webseite hinweist. Darüber hinaus ist die Arbeit deswegen auch Personalintensiv. So arbeiten z.B. bei WeBuildPages 45 „Link Ninjas“ und über 100 Schreiber, um die Kunden zu bedienen. Kein Wunder, dass bei entsprechenden Dienstleistern die Preise für 10 neue, qualitativ hochwerte Backlinks pro Monat bei bis zu 2500 USD liegen. Pro Monat natürlich.
Die Firma AdGooroo hat in den Zusammenhang ein Tool [5] vorgestellt, welches beim Link Building unterstützen soll. Wie schon WeBuildPages, sieht auch AdGooroo das Problem, dass „blindes“ Link Building ja zu Backlinks, aber nicht zwingend zu Traffic oder gar Umsatz führen müssen.
Das Tool basiert auf der Bow-Tie-Theorie. Die Basis ist dabei nicht der Pagerank der potentiellen Linkquelle, sondern die Einstufung, in wie weit die Inhalte zum Ziel passen. Das Tool sucht wöchentlich nach Links und weist diesen einen Score zu. Darüber hinaus findet eine Einstufung nach primären Kriterien (Trust oder Spam) und nach sekundären Kriterien (Social, Georaphisch) statt. Das Ziel ist qualitative Backlinks zu finden, festzustellen ob die Linkquelle passt (falls notwendig, besonders für lokale Händler wichtig) oder ob sich derder Link auf sozialen Netzen, Bookmarkingsites, usw. befindet.
Interne Links: Gefahr Duplicate Content
Ein weiteres Panel [7] befasste sich mit dem Thema der internen Verlinkung und der Nutzung mehrerer Domains für ein Angebot. Bei diesen internen Link kann man schnell in die Falle der doppelten Inhalte [8] laufen. Dieser kann schnell zu Problemen wie z.B. der potentiellen Abstufung bei Google führen. Darüber hinaus indiziert Google nur endlich viele Seiten einer Webseite. Es ist vom Nachteil, weil dieser Crawler Cap [9] laut Shari Thurow [10] of Omni Marketing bei 1000 Seiten pro Webseite liegt. Ursachen für doppelten Content können vielfältig sein und sind nicht immer offensichtlich:
- Man nutzt mehrere Domains für den selben Inhalt und erlaubt für alle die Indizierung durch Roboter
- Man hat beispielsweise 500 Inhaltsseiten und auf jeder Seite ist ein „printer friendly“-Link/Button, der den selben Inhalt wieder beinhaltet
- Eine Autofillfunktion einer Suchmaske führt auch bei einen Google Crawler zu einer Ausführung, Suchergebnisse und damit zu neuen Trefferlinks mit dem selben Inhalt
- Community Sites haben noch weitere Risiken. Als Beispiel wurde eine Games-Website mit 2 Millionen Nutzern genannt. Alle hatten eine Profilseite, wobei die meisten Nutzer die Profildaten nicht anpassten. So entstanden viele inhaltlich weitgehend identische Seiten.
- Eigener Content wird ohne Änderung durch Affiiliates unsachgemäß genutzt oder sogar geklaut [11].
Die meisten Probleme kann man durch die Robot-Datei lösen: Suchergebnisse, Printer-friendly-Seiten und andere Domains ausser der Hauptdomain in robots.txt [12] oder Robots Metatags [13] und Canonical Tags [14] ausschliessen.
Diese Massnahmen können extrem positiven Einfluss haben. In einigen Fallbeispielen konnten laut Kathleen Pitcher, von Acquisitions Marketing folgende Ergebnisse erzielt werden:
Die Besuche über natürliche Suche stiegen im Durchschnitt um 72%. Bei den wichtigsten Keywords war der Effekt noch größer. Beispielsweise in Zusammenhang mit den erwähnten Game-Website stiegen die Besuche z.B. bei „online games“ um 198% und bei „free online games“ um 99% an.
Michael Gray [15], vom Atlas Web Service, gab ebenfalls Tipps. Er riet dazu, Inhalte die man an Partner zur Integration in deren Webseiten weitergibt, leicht zu modifizieren. Da die Inhalte miteinander verwandt sind, kann dies das Ranking der eigenen Webseite durch doppelten Inhalt also sogar positiv beeinflussen. Dazu machte er am Rande noch folgende Bemerkung:
Its very hard to tell bad SEO from good sabotage.
Ob das schon Black Hat SEO Massnahmen sind kann man als Ansichtssache [16] bezeichnen.
Und was gibts noch ?
Weitere Massnahmen für das Link Building können dabei auch Social Media Kampagnen liefern. Dies wird in einen weiteren Artikel über die Wechselwirkungen zwischen Social Media und SEO beschrieben. (FS [17])