![]() | No Follow |
|||
Home Neues TestSeite Forum Suchen Teilnehmer Communities Ordner Index Hilfe Einstellungen Ändern |
Ein ![]() Vermutlich wäre es möglich, damit auch bestimmte Wiki-Funktionen (z. B. diff oder ältere Seitenversionen), die keinen neuen Content verfügbar machen, gegen den Besuch durch Google abzuschirmen.
Einige WikiEngines Zu beachten ist dass Googles Angebot nichts mit dem robots.txt no-follow zu tun hat. Das no-follow von Google bezieht sich auf page-ranking ("those links won't get any credit when we rank websites in our search results"). Ob es einen Effekt auf spiders haben soll, haben sie nicht gesagt. Vielleicht hat rel="nofollow" beide Effekte; wichtig ist aber dass es sich hier um zwei verschiedene Effekte handelt. Oddmuse verwendet die Robot Anweisungen, um nur gewisse Seiten zu indexieren und NoFollow Anweisungen, um das Aufrufen einiger besonders langer Seiten (wie zB. alle Änderungen der letzten 90 Tage) zu unterbinden.
Wie Zudem werden Kommentare und Wiki-Seiten auf den Systemen keinen Einfluss mehr auf Google's page-rank haben. Auf einem Blog lässt sich einfacher kontrollieren was geschützt ist und was nicht -- man kann dort zB. Links im Artikel nach aussen zählen lassen, aber Links in Kommentaren nicht. Wie wichtig sind die Links von Kommentaren? Wohl nicht so wichtig. Aber auf einem Wiki lässt sich dieser Unterschied nicht machen. Das ist doch eigentlich schade... Solange ein Wiki zur Dokumentation von Dingen verwendet wird, auch meist kein Problem. Ein zwiespältiges Gefühl bleibt...
Ich bin auch zwie- oder mehrspältig. Den Spam wird man damit nicht los. Für mich ist dieses "tag" dann interessant, wenn es das tut, was es sagt (den Links nicht folgt) und es dadurch damit eine feinere Steuerungsmöglichkeit für Entwickler gibt, in welche Seiten und Funktionen man eine Suchmaschine hineinlassen möchte oder nicht. Versuchsweise implementiert die ProWikiSoftware
OrdnerTechnik OrdnerSoftware ![]() | |||