Kurze Artikel - was Suchmaschinen davon halten
Vor wenigen Tagen mußte ich erschrocken feststellen, dass Google diese Domain blocati.de nicht mehr lieb hat. Von ursprünglich über 100 indizierten Seiten waren plötzlich nur noch 4 Seiten und einige Stunden später nur noch die Startseite im Index. Durch die marktbeherschende Stellung von Google ist das für eine Seite der Todesstoß. In den USA hat Google inzwischen über 60% Marktanteil, hier in Deutschland sprechen die Statistiken von 80-90%. Wenn man bedenkt, dass mehrere andere ehemals große Suchdienste wie AOL oder die T-Online-Suche ebenfalls auf Google-Ergebnisse zurückgreifen, bleiben einem also noch etwa 5% der potentiellen über Suchmaschinen erreichbaren Besucher erhalten. Dies ist zweifelsfrei eine äußerst ungünstige Situation. Auch wenn viele der vom Internet mehr oder weniger abhängigen Leute diese Monopolstellung gerne etwas “begradigen” würden, so hat doch keiner eine Lösung dafür. Immerhin bietet Google nun mal in nahezu allen Fällen die besten Ergebnisse. In den letzten Jahren ist Google durch seine Geldeinnahmen (99% aus Werbung!) zu einem solchen Giganten herangewachsen, dass die Konkurenz kaum eine Chance hat, ähnliche Investitionen in Technik, Personal und Forschung/Entwicklung zu stecken. Was bleibt, ist die bedingungslose Hingabe und die Sorge darum, hauptsächlich auf Google hin zu optimieren.
Die Problematik des Rauswurfs der meisten Seiten aus dem Google-Index führte dazu, dass ich die letzten Tage massiv an blocati herumgeschraubt habe. Nicht zuletzt deshalb ist hier jetzt auch der erwähnte Counter eingebaut, um Botaktivitäten untersuchen zu können. Die beiden Hauptprobleme wurden mir allerdings auch ohne Counter sehr schnell bewußt.
Problem #1 - zu kurze Artikel
Äußerst ungünstig wirken sich sehr kurze Texte aus, wie sie Cati uns ganz gerne als “Erkenntnis des Tages” verkauft *g* Dafür gibt es zwei Gründe. Einerseits beinhalten diese Artikel einzeln betrachtet kaum mehr als das Grundgerüst des WordPress-Blogs und sind somit auch für Suchmaschinen offensichtlich als wertlos erkennbar. Häuft sich dies, so greifen bei Google (und sicherlich auch bei anderen) inzwischen sehr effektive Anti-Spam-Mechanismen. Um die Grabbeltätigkeit der Bots nicht weiter unnötig auszuweiten und die Datenbanken nicht zu schnell wachsen zu lassen, werden Seiten, die größtenteils aus als “wertlos” oder “Spam” eingestuften Unterseiten bestehen, einfach komplett abgestraft und nach hinten sortiert. Ergebnis ist ein seltener Besuch durch die Bots und vor allem wird die Indizierung nicht mehr bis in die letzten Ebenen durchgeführt.
Problem #2 - Duplicate Content und die Kraft einer Seite
Ebenfalls erwähnt hatte ich im letzten Artikel die Blog-Verzeichnisse, die Auszüge aus den Blogs bei sich archivieren und diese natürlich auch den Suchmaschinenbots anzeigen. Ohne jetzt weiter auf Details einzugehen, läßt sich die Problematik auch ganz einfach erklären: Die Domain blocati.de ist recht frisch und noch extrem schwach, da sie bisher nur wenige eingehende Links besitzt - die meisten davon stammen aktuell sogar von diesen Blog-Ping-Diensten. Diese wiederum haben für die Suchmaschinen auf Grund ihrer großen Anzahl von eingehenden Links und auch durch ihr größeres Alter bedingt eine extrem überlegene Kraft. Dies wiederum bedeutet, dass Suchmaschinen wie Google dort häufiger vorbeikommen und viele Artikel erst dort und anschließend hier vorfinden. Wenn man jetzt noch betrachtet, dass einige dieser Artikel extrem kurz sind und somit komplett auf diesen bedeutend stärkeren Verzeichnissen vorgefunden werden können, so wird letztendlich blocati.de so eingestuft, als wäre das hier alles nur Contentgrabbing (Dupplicate Content = DC) und somit überflüssiger Spam.
Die Lösung
Ich habe in den letzten Tagen ein paar kleinere Links organisiert, so dass die Seite wenigstens ein bißchen mehr Power bekommt. Weitere werden natürlich nach und nach folgen, aber das ist eine langwierige und zeitintensive Geschichte. Der 2. Schritt war, dass ich gestern früh alle Artikel durchgesehen habe und alles, was ich als zu kurz eingestuft habe, mit dummen Kommentaren ausgeschmückt habe. Mit Sicherheit sind einige der Artikel trotzdem noch viel zu kurz, aber der DC-Faktor betrifft jetzt wenigstens nur noch einen kleinen Teil der Artikel, denn die Kommentare werden in den Verzeichnissen ja zum Glück nicht mit angezeigt
Das Ergebnis
Schon wenige Stunden später begann die Anzahl der von Google indizierten Seiten (besser: die, die auch bei der Suche ausgegeben werden) wieder zu steigen. Derart zügige Veränderungen hätte ich nie erwartet - ich hatte eher mit einigen Tagen gerechnet. Etwa 15h später fanden sich wieder 11 Seiten, aktuell sind es (nach etwa 21h seit der Ergänzung der Kommentare) immerhin schon 15 Seiten im Index. Den genauen Einfluß der Links kann ich nicht beurteilen, es waren so 5-6 Stück und keine übermäßig starken. Aber immerhin, es geht wieder vorwärts - auf zu neuen Schandtaten
SEO-Partner: Suchmaschinenoptimierung
Am 9. August 2006 um 05:16 Uhr
Noch ein kleiner Nachtrag mit weiterführenden Infos als Kommentar:
Die Anzahl der von Google indizierten Seiten erhält man so:
http://www.google.de/search?hl=de&q=site%3Ablocati.de&btnG=Google-Suche&meta=
Weitergehende Infos findet man z.B. mit Hilfe der in der Szene bekannten Toolsammlung meines “Herrn und Meisters”:
http://www.linkvendor.com
Ãœbersicht Google-Ranking 2004-2006 von der Konkurenz:
http://www.seo-consulting.de/pages/20040402-ranking-suchmaschinen.php
Eine sehr eindrucksvolle Statistikübersicht eines deutschen Counterbetreibers:
http://www.webhits.de/deutsch/index.shtml?webstats.html
Auf letzterer Seite verschwindet komischer Weise rechts das Menü nach dem Draufklicken, aber egal. Interessant sind dort die Marktanteile der Suchmaschinen, der Browser und der Betriebssysteme. Ich persönlich schätze allerdings, dass gerade bei den letzten beiden Statistiken eine Verfälschung bedingt durch die den Counter nutzenden Kunden erfolgt ist. Der Firefox hat inzw. einen bedeutend größeren Marktanteil (ca. 50% in Dtl.) und auch Linux ist weitaus stärker vertreten.
Aus den Statistiken einer meiner reinen IT-Seiten kann ich berichten, dass ich ca. 60% Firefox und nur 40% MSIE/Opera/sonstige habe. Durch meine starke Ausrichtung auch in den Linuxbereich hinein habe ich dort auch einen Anteil von ca. 10% Linux/Unix. Diese Statistiken wiederspiegeln natürlich auch nicht den Gesamtdurchschnitt, sondern sind durch den großen Anteil an Leuten vom Fach verbogen. Bei mir liegt dort übrigens der Anteil von Besuchern, die von Google kommen gegenüber allen anderen Suchmaschinen bei über 99%! Allerdings bin ich dort trotz recht guter Verlinkung und wirklich äußerst gutem Content bei vielen Suchmaschinen nicht wirklich gut gelistet, da stehen oftmals bedeutend schwächere Seiten über mir, aber egal - das sind ja in Dtl. nur 5% der User, die die Seite nicht/kaum finden können
Am 9. August 2006 um 06:06 Uhr
Noch mal drei nette Punkte zur Macht von Google:
- der Konzern hat inzwischen einen höheren Börsenwert, als Coca Cola
- Anfang 2006 entschied sich Google für die Serveraufrüstung nicht weiter intel-CPUs zu verwenden, sondern auf AMD zu setzen. Das Ergebnis: intel mußte seine Umsätze stark nach unten korriegiern und AMD erhilet einen ordentlichen Schub an der Börse. Wer sonst kauft auch 200.000 CPUs für seine Server?
- Google ist erst 1995 entstanden, bis vor wenigen Jahren waren Yahoo, Altavista und MSN die Größen am Markt. Vor allem Yahoo mit seinem handsortierten Verzeichnis war sehr beliebt. Ein ehemaliger Winzling hat somit binnen 10 Jahren die gesamte Konkurrenz durch seine hervorragenden Alghorithmen und die saubere Trennung von Suchergebnissen und Werbung ins Abseits gestellt.
Etwas zu Yahoo:
Yahoo als einer der Vorreiter im Suchmaschinenbereich und ehemaliger Marktführer besitzt erst seit etwa 2 Jahren (Kauf von Altavista und anderen SuMas) eigene echte Suchtechnologien, die das hauseigene Verzeichnis (der Ursprung aller Webkataloge und ähnlich groß, wie das ODP) ergänzen. Dieses Verzeichnis hat noch ein weiteres Problem: es ist kostenpflichtig und somit stehen kaum interessante nicht kommerzielle Seiten drin, in Dtl. wird das Verzeichnis sogar seit einigen Jahren nicht mehr gepflegt - eine Wiederbelebung ist allerdings geplant. Kostenpflichtig bedeutet übrigens 300€ Bearbeitungsgebühr - eine Aufnahme wird damit noch nicht garantiert! Wahnsinn … aber für’s Ranking bei jeder kommerziellen Seite eine sinnvolle Investition.
Am 16. August 2009 um 07:47 Uhr
Wir haben zur Zeit genau das gleiche Problem. Unsere Artikel werden nicht mehr gerankt und wenn wir auf ein Keyword gerankt werden, dann nur mit der Startseite.
Die Anzahl der indixierten Seiten bei Google wird auch immer geringer. Von ursprünglich 1200 sind jetzt nur noch 236 übrig und es werden immer weniger. Es würde uns brennend interessieren, was man genau dagegen machen kann.
Die SEO-”Experten”, die wir gefragt haben, sagten uns wir sollen uns gedulden und es würde sich von selbst wieder regeln. Ich bezweifel dies aber langsam, da nun schon fast ein Monat rum ist.