01.01.2016, 21:09
|
#5 |
/// Winkelfunktion /// TB-Süch-Tiger™  | Crawler, Spider über htaccess. und robots.txt ausschließen Zitat:
Zitat von Nanafa sondern darum, gerade in eher persönlich gehaltenen Foren nicht "ausgespäht" zu werden, weil da ja als angemeldete Mitglieder auch oft diese ganzen Spider unterwegs sind... Das war so die Logik, die ich mir dazu gedacht habe... Hoffe noch auf Antwort, und ansonsten muss ich mich da evtl mal noch weiter bilden  | Lies doch mal zB https://de.wikipedia.org/wiki/Robots_Exclusion_Standard Zitat:
Zitat von wiki In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf. Website-Betreiber haben so die Möglichkeit, ausgesuchte Bereiche ihrer Website für (bestimmte) Suchmaschinen zu sperren. Das Protokoll ist rein hinweisend und ist auf die Mitarbeit des Webcrawlers angewiesen. Man spricht hier auch von „freundlichen“ Webcrawlern. Ein Ausgrenzen bestimmter Teile einer Website durch das Protokoll garantiert keine Geheimhaltung |
__________________ Logfiles bitte immer in CODE-Tags posten |