Wie man unerwünschtes auslesen der Webseite durch Crawler, Spider oder allgemeiner Robots bzw. Bots genannt verhindern kann, habe ich ja bereits im Artikel Unerwünschtes crawlen der Website durch Bots bzw. Spider verhindern beschrieben.
Manchmal kann es aber notwendig sein, bestimmte IP Adressen vom Aufruf der Webseite zu hindern, z.B. bei einem Angriffsversuch auf die Webseite. Mit Hilfe der folgenden Einträge in der .htaccess Datei im Startverzeichnis der Seite lassen sich unerwünschte Besucher elegant abwehren:
order allow,deny deny from 192.168.1.100 deny from 41.222.48.90 allow from all
Pro IP-Adresse wird eine eigene Zeile verwendet. Falls sich unter dem aktuellen Verzeichnis Unterverzeichnisse befinden, so gilt die Regel auch für diese Verzeichnisse. Ein Aufruf einer Seite erzeugt in den (Apache) log files einen 403 Fehlercode.
Den Code abschließend noch in die .htaccess Datei, normalerweise die, die sich im Root (Wurzelverzeichnis) der Webseite befindet kopieren und speichern. Der Eintrag kann noch vor dem Eintrag ‚RewriteEngine On‘ eingetragen werden.
Frohes blockieren wünscht
Chefkoch
Als Chefkoch arbeite ich als Systemadministrator und Programmierer. Hier blogge ich über Joomla, Magento, WordPress und Windows. In meiner Freizeit fotografiere ich viel, fahre mit meiner Yamaha XT660R oder Jogge durch die Gegend.