Slurp Probleme Diskussion
 
StartSeite | Neues | TestSeite | ForumSeite | Teilnehmer | Kategorien | Index | Hilfe | Einstellungen | Ändern

Nachdem wir im Moment SlurpProbleme haben, würde ich gerne diskutieren, wie wir damit umgehen sollen.

Ist es legitim, dass ein Benutzer eine komplette Kopie eines Wiki (derzeit hat das DseWiki ca. 1500 Seiten) herunterlädt?

Kann man erwarten, dass er das Programm so konfiguriert, dass dieser Download schonend erfolgt (vermutlich nicht)?

Wenn der Wunsch sinnvoll und legitim ist, dann müsste ich wohl eine gezippte Version zum Download zur Verfügung stellen. Lieber würde ich mir die Arbeit jedoch sparen. So eine Version ist doch ohnehin am nächsten Tag schon veraltet.

Soll man Slurp automatisch blocken? Und wenn ja, nach welchem Algorithmus (Einfachheit, Sicherheit nicht auf Benutzer anzusprechen)?

-- HelmutLeitner

Wie ist eure Meinung dazu? Könnt ihr mir mit Erfahrungen oder Vorschlägen helfen?

Erfahrung nicht, aber eine unausgegorene Idee: Könnte man nicht die Anzahl der Seitenzugriffe pro Sekunde je IpAdresse? begrenzen? Wenn man alle weiteren Zugriffe einfach verzögert, würde man das Slurpen nicht vollständig unterbinden (nur ausbremsen), aber das DseWiki entlasten, so scheint es mir. Klingt das sinnvoll? Einfach? -- IljaPreuß

Klingt gut. Nur ein Sekunden-Memory fällt mir schwer einfach und effizient zu implementieren. Aber ein 5-Minuten-Memory wäre einfach zu implementieren. Blocken gefällt mir besser als verzögern, weil die Prozessanzahl beim Apache limitiert wird und es könnten die Prozesse für die Benutzer ausgehen. -- hl

Eine gezippte Version scheint mir eine gute Idee zu sein. Vielleicht alle 12h automatisiert ein zip erstellen sollte doch nicht so schwer sein, oder? Entscheidend wären natürlich die Gründe der Slurper selbst. Aber, spekulierend betrachtet, könnte ich mir vorstellen, daß, ohne DSL-Flatrate ausgestattet, jemand durchaus Interesse daran haben könnte, ein Zip-File des Wikis zu ziehen. Aktualität mag da kein Argument sein, da ein Überblick über die Stammseiten unabhängig von der aktuellen Diskussion auch sehr spannend ist (eigene Erfahrung :-) ). -- bs

Ich finde es nicht so leicht, denn viele Links im Wiki werden dynamisch umgesetzt (z. B. die Backlinks von den Seitentiteln), manche Elemente sind der Eintragung des Benutzernamens abhängig (Archiv). Ich nehme auch an, dass die Umsetzung der Urls in lokale Links unter Windows anders aussehen müsste als unter Unix. Manche Funktionen könnten nicht (Volltextsuche) andere nur mit größerem Aufwand (Backlinks) ins lokale System transportiert werden. Nachteil ist auch, dass man nicht mehr erfährt, welche Teile des Systems wie oft benutzt werden (TopTen). Insgesamt scheint mir der Aufwand relativ gross im Verhältnis zum Nutzen. -- hl

In WardsWiki werden woechentlich bestimmte Seiten nach HTML konvertiert und in eine .zip-Datei gepackt ( WardsWiki:WikiMirrors).


KategorieWiki
StartSeite | Neues | TestSeite | ForumSeite | Teilnehmer | Kategorien | Index | Hilfe | Einstellungen | Ändern
Text dieser Seite ändern (zuletzt geändert: 11. Oktober 2002 18:07 (diff))
Suchbegriff: gesucht wird
im Titel
im Text