rejetto forum
Software => Other languages => HFS ~ HTTP File Server => Deutsch => Topic started by: hajota on March 03, 2009, 08:06:11 PM
-
Hallo
ich nutze den HFS 2.2f und tausche mit Freunden Bilder und Filme darüber aus (keine ungesetzlichen).
Dabei sind dann aber auch hie und da einzelne, die erst den Ordnerinhalt laden und anschließend den ganzen Ordner nochmal. Das geht dann zu Lasten der Bandbreite und die anderen haben das Nachsehen.
Hinweise und Bitten haben nicht dazu geführt, dass der oder die es unterlassen. Vermutlich nutzen sie einen webcrawler und geben die web-addy an, und der lädt dann eben alles zweimal.
Jetzt möchte ich deren ip-Bereich bannen, damit sie gar nicht mehr zugreifen können. Ich versuche z.B. mit der Eingabe 123.456.???.??? einen Bereich auszuschließen, weil ich keine Lust habe, hunderte oder 1000e einzutragen.
Gibt es eine andere Möglichkeit?
Danke für eure Hilfe.
hajo
-
Die erste Möglichkeit ist dass du den Zugang zu deinen Ordnern nur Leuten mit Benutzername un Passwort gewahrleistest¨.
Um IP-adressen oder -bereiche auszuschliessen, benutzt du richtigerweise ban's.
Des weiteren ist deine Anfrage unklar: Unter Ordnerinhalt laden verstehst du die Webseite wiederholt zu sichten, oder den Inhalt mehrere male herunterzuladen?
... es gibt hie und da einzelne !!! ... keine lust habe hunderte oder 1000e !!! einzutragen .
Suchst Du eine Möglichkeit fur einzelne oder für tausende ??? !!! (um sie von deinem server zu verbannen, nehme ich an)
Gegen webcrawler der suchmaschinen hilft dir übrigens <META name="robots" content="noindex, nofollow" />, falls diese der grund für deine Belästingung sein sollten.
-
Es sind Leute dabei (meist ältere), die sich mit PC's und insbesondere mit Browsern nicht auskennen und die durch
Passworte abgeschreckt werden. Abgesehen ist das gegen den Einsatz von crawlern oder spider keine Abwehr, denn der User trägt eben die Passwörter auch ein.
Ja, ich stelle einen virtuellen Ordner hinter meine ip für etwa 12 Stunden. Und die Dateien können als thumbnails oder mit einer Beschreibung ausgelesen werden bevor sie geladen werden. Und wenn jemand eben nicht den Ordner öffnet um zuerst hinein zu sehen, ob es sich für ihn lohnt, sondern gleich nur die ip-Adresse eingibt, dann lädt er zuerst die Dateien und anschließend nochmal den gesamten Ordner mit Inhalt; d.h. er hat alles doppelt. Das stört ihn aber nicht weiter, am nächsten Tag wiederholt sich das Spiel erneut. Und du weißt selbst, dass die Bandbreite nicht sehr groß ist und wenn andere deswegen nur eine eingeschränkte Bandbreite zum laden haben, verlieren sie die Lust daran.
Deshalb will ich z.B. den Bereich des einen unbelehrbaren bannen, da sich die ersten 6 Ziffern nicht ändern sondern nur der Teil dahinter. Daher die Frage ob das nach vorgeschlagenem Muster gehen könnte, also mit wildcards?
hajo
-
Ich vergaß zu erwähnen, dass ich mich nicht gegen die robots der Suchmaschinen zur Wehr setze, für die bin ich zu kurz online, sondern gegen die webspider, mit denen man ganze websiten-Inhalte auf einmal laden kann.
hajo
-
probiere aktivation von:
menu -> limits -> stop spiders
-
Awsome bacter. Aaaawsoome.
-
Die Methode 123.456.*.* sollte funktionieren. Bei meinem Test ging es so.
-
Mark5, the method with bans works, and he used it .. but he seems to have some hundred or thousands of elder friends who use spiders .. :)
-
@bacter
nein, ich will nicht hunderte oder 1000de bannen sondern nur die Bereiche von z.B. 123.456.0.0 bis 123.456.999.999 und das sind halt viele. Ich weiß ja nicht im voraus welche ip der jeweilige user zugewiesen bekommt und deshalb möchte ich einen ganzen ip-Bereich sperren.
Wenn das so funktioniert wie Mark sagt, war ich auf dem richtigen Weg.
Danke und ich melde mich wenn es denn funktioniert hat.
hajo
-
@bacter
bei mir gibt es keinen menu/limits stop spider! Ist das ein neues feature?
hajo
-
ich hatte in deinem erste post angenommen, dass du bereits den ban mit 123.45.*.* benutzt. Deshalb antwortete ich:
Um IP-adressen oder -bereiche auszuschliessen, benutzt du richtigerweise ban's.
Benutze anstelle der version 2.2f eine aktuelle beta 2.3, build 228 zum beispiel - für stop spiders must du dich in den expert-mode begeben.
-
@bacter - danke für den Tip, ich werde die beta erst testen, ob sie stabil genug läuft. Den Expert-Modus nutze ich schon seit ich hfs einsetze.
Heute Abend wird sich herausstellen, ob das bannen des ip-Bereichs ok ist.
Eine andere Möglichkeit wäre, den Ordner vom download auszuschließen; diejenigen, die dann den Link zu den files benutzen sollten eigentlich keine Probleme haben die files zu laden. Oder denke ich falsch?
hajo
-
1. die beta läuft sehr stabil.
2. vom download ausschliessen (no download als ordner-attribut) bewirkt genau was es sagt: es gibt dann keinen download (also auch keine thumbnails)
-
@bacter - ich probiere die beta am Wochenende aus; hauptsächlich wegen der Möglichkeit "no spider".
no download ist keine Alternative - ich habe es probiert.
Das bannen eines ganzen ip-Bereichs nach vorgeschlagenem Muster hat funktioniert. Der Mensch konnte nicht auf den server gelangen.
hajo
-
@bacter - ich habe die beta installiert und no spider ausprobiert. Das funktioniert scheinbar nicht bei jeder Software. Einem ist es trotzdem gelungen praktisch den gesamten freien Inhalt runter zu laden. Ab morgen wird er sich fragen, warum er nicht mehr auf die site kommt und den Grund kann er dann nachlesen in der Textdatei, die er mit heruntergeladen hat.
Ich verlasse mich künftig auf das bannen des ip-Bereiches.
Danke für die Hilfe bisher
hajo