Sicherheit Das Internet ist bunt, schillernd und informativ. Doch es ist auch
Feindesland, und erbarmungslos mit dem, der nicht hinter die Fassade
schaut. Waren es vor Jahren noch zerstörerische Viren und spionierende
Trojaner, die unbedarfte User um ihre Daten brachten, sind es heute
Searchbots, Email-Adressen-Sammler und anderes nicht-destruktives
Ungeziefer, das Webmastern das Leben schwer macht.
Mit .htaccess oder
robots.txt gibt es zwar Möglichkeiten, sich solche Plagegeister vom
Hals bzw. der eigenen Web-Präsenz zu halten. Jedoch ist das eine
(.htaccess) nicht ganz trivial zu bedienen und das andere (robots.txt)
für manche Searchbots offenbar von eher bittenden als bindenden
Charakter - sie ignorieren deren Einträge oft einfach. Hier bietet sich
das in PHP entwickelte Programm page.restrictor von bot-trap.de an.

Bot-TrapDer Page Restrictor ist ein frei erhältliches Script, welches sich
selbstständig und fortlaufend mit neuen Programmversionen aber auch
Signaturen updated. Das heisst man installiert dieses Script einmalig auf seinem Server, bindet es bei sich ein, und muss sich fortan nicht mehr um die bekannten Plagegeister kümmern. Diese werden fortan mit einer netten Fehlermeldung beglückt.

Das geniale Script lässt sich auch ganz einfach in pragmaMx integrieren. Im Forum wurde das bereits ausführlich beschrieben.