Hallo, auf unsere Gambio Shop 4.8.0.2 sind seit 3 Tagen dauerhaft über 400 Zugriffe von Brightbot, wovon jeder eine andere IP Adresse hat ! Ich brauche mich nur einloggen und schon kommen wieder über 400 Zugriffe ! siehe Bild Und seit heute haben wir auch keinen Zugriff mehr per FTP auf denn Shop mit der Fehler Rückmeldung Verzeichnisinhalt konnte nicht abgerufen werden Fehler beim Anzeigen des Verzeichnisses „/httpdocs/gx3/GProtector“ was ist da los wer weis Rat und kann Hilfe geben ? Gruss Isabel
Hi, versuch mal folgendes, beschädigen kannst du nichts ;-) Trage diese Zeilen am Ende der htaccess Datei ein, ich habe praktisch keinerlei Bots mehr, somit natürlich auch weniger CPU Belastung am Server. Ob es bei dir funktioniert, kann ich nicht versprechen, aber ein Versuch ist es Wert: BrowserMatchNoCase "HTTrack" bots BrowserMatchNoCase "SEOkicks-Robot" bots BrowserMatchNoCase "AhrefsBot" bots BrowserMatchNoCase "YandexBot" bots BrowserMatchNoCase "Uptimebot" bots BrowserMatchNoCase "GeedoBot" bots BrowserMatchNoCase "Cliqzbot" bots BrowserMatchNoCase "ssearch_bot" bots BrowserMatchNoCase "Brightbot" bots Order Allow,Deny Allow from ALL Deny from env=bots
Das habe ich noch in die robots.txt geschrieben: Wie zuvor erwähnt, wenn was nicht funktioniert, einfach die Eintragungen wieder löschen, alles auf eigene Gefahr! # Blockiert die Bots, die uns zu sehr belasten/ angreifen: User-agent: Yandex Disallow: / User-Agent: MJ12bot Disallow: / User-agent: BLEXBot Disallow: / User-agent: SemrushBot Disallow: / User-agent: HTTrack Disallow: / User-agent: Linguee Disallow: / User-agent: dotbot Disallow: / User-agent: BUbiNG Disallow: / User-agent: Barkrowler Disallow: / User-agent : DAUM Disallow: / User-agent: MauiBot Disallow: / User-agent: AlphaSeoBot Disallow: / User-agent: ltx71 - (http://ltx71.com/) Disallow: / User-agent: InoopaBot Disallow: / User-agent: Cliqzbot Disallow: / User-agent: serpstatbot Disallow: / User-agent: um-IC Disallow: / User-agent: um-LN Disallow: / User-agent: Paracrawl Disallow: / User-agent: SEOkicks Disallow: / User-agent: SEOkicks-Robot Disallow: / User-agent: Scrapy Disallow: / User-agent: MTRobot Disallow: / User-agent: AwarioRssBot User-agent: AwarioSmartBot Disallow: / User-agent: Screaming Frog SEO Spider Disallow: / User-agent: DataForSeoBot Disallow: / User-agent: GeedoBot Disallow: / User-agent: polite-crawler Disallow: / User-agent: SeekportBot Disallow: / User-agent: Petalbot Disallow: / User-agent: Brightbot Disallow: / # Hier noch mal zu Ahrefs, falls dieser die Disallow-Einstellung ignoriert User-agent: AhrefsBot Crawl-Delay: 15 Disallow: /go/ Disallow: /*/go/ Disallow: /images/view/
Hallo Harry, ich Danke für deine Unterstützung, aber unser Provider hat sich der Sache schon angenommen ! Das FTP geht schon wieder und der Bot kann so nicht ausgeschaltet werden denn er ignoriert die Einträge in der Robots.txt Datei und bleibt ! Schalte ich denn Shop aus ist der Bot ganz weg Wenn ich mich wieder in denn Shop einlogge ist der Bot sofort wieder da und macht bis zu über 400 Einträge ! Gruss Isabel
Könnte man so etwas auch über den GProtector durch Eintragung in die ip_blacklist.txt steuern und diese IP-Adressen aussperren?
Das gleiche Problem hatten wir seit gestern auch. Die kleine Änderung in der htaccess hat ihn ausgesperrt. Wenn doch alles so einfach wäre Vielen Dank Harry LG Daniel
Warum macht Ihr Euch das Leben so schwer? Man kann es auch umgekehrt machen, indem man erst die gewünschten Bots freigibt und dann alle anderen sperrt. Macht die Sache wesentlich übersichtlicher und alle Bots die sich an die Regeln halten, bleiben draußen. Die anderen muss man dann am Besten über Firewallregeln sperren. Also so: Code: User-agent: Googlebot Disallow: User-agent: Bingbot Disallow: User-agent: DuckDuckGo Disallow: User-agent: * Disallow: /