Robot-Hürde ohne robot.txt, htaccess

P

Programmer78

Doppel-As
Hallo zusammen,

gibt es eine benutzerfreundliche, sichere Möglichkeit Robots von bestimmten Webseitenbereichen auszuschließen? Ich gehe derzeit über einen Kurzlinkanbieter mit Passworteingabe, wollte das aber vereinfachen. Ich stelle mir so eine großformatige Grafik vor, wo der Nutzer nur einmal mit der Maus draufklicken muss um zum robot-sicheren Bereich zu kommen.

Suche möglichst eine Lösung ohne PHP, Java, htaccess oder robot.txt

Habt ihr Ideen?

Gruß

P.

PS: Ziel: Indizierung bestimmter Unterseiten des Webservers ist automatisiert nicht möglich.
 
Alles jenseits von .htaccess mit PW/Login (tut recht gut solange keiner das PW bei der Suchmaschine reinhaut) oder robots.txt (funktioniert anständig bei den üblichen Suchmaschinen) kannst Du "vergessen" - solange eine Seite ohne Hürde direkt ereichbar ist (und da reicht auch ein nicht-ver.htaccess-ter Deeplink kann von Robots indiziert werden - da eben direkt erreichbar.
 
Schon vergessen! Danke für deine Einschätzung. Dann muss der bequeme Nutzer halt eine Hürde in Kauf nehmen.
 

Ähnliche Themen

Robots aussperren, Websitescan unterbinden, PHP Checkbox-Captcha?

Server-Monitoring mit RRDTool

Zurück
Oben