über 400 Zugriffe auf denn Gambio Shop von ....

Thema wurde von IH59, 2. Dezember 2023 erstellt.

  1. IH59
    IH59 Erfahrener Benutzer
    Registriert seit:
    20. Februar 2018
    Beiträge:
    201
    Danke erhalten:
    20
    Danke vergeben:
    86
    #1 IH59, 2. Dezember 2023
    Zuletzt bearbeitet: 2. Dezember 2023
    Hallo,

    auf unsere Gambio Shop 4.8.0.2 sind seit 3 Tagen dauerhaft über 400 Zugriffe von Brightbot, wovon jeder eine andere IP Adresse hat !

    Ich brauche mich nur einloggen und schon kommen wieder über 400 Zugriffe !

    siehe Bild
    upload_2023-12-2_20-44-7.png

    Und seit heute haben wir auch keinen Zugriff mehr per FTP auf denn Shop mit der Fehler Rückmeldung
    Verzeichnisinhalt konnte nicht abgerufen werden
    Fehler beim Anzeigen des Verzeichnisses „/httpdocs/gx3/GProtector“


    was ist da los wer weis Rat und kann Hilfe geben ?

    Gruss Isabel
     
  2. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    13. Juni 2018
    Beiträge:
    209
    Danke erhalten:
    100
    Danke vergeben:
    146
    Hi, versuch mal folgendes, beschädigen kannst du nichts ;-)
    Trage diese Zeilen am Ende der htaccess Datei ein, ich habe praktisch keinerlei Bots mehr, somit natürlich auch weniger CPU Belastung am Server.
    Ob es bei dir funktioniert, kann ich nicht versprechen, aber ein Versuch ist es Wert:

    BrowserMatchNoCase "HTTrack" bots
    BrowserMatchNoCase "SEOkicks-Robot" bots
    BrowserMatchNoCase "AhrefsBot" bots
    BrowserMatchNoCase "YandexBot" bots
    BrowserMatchNoCase "Uptimebot" bots
    BrowserMatchNoCase "GeedoBot" bots
    BrowserMatchNoCase "Cliqzbot" bots
    BrowserMatchNoCase "ssearch_bot" bots
    BrowserMatchNoCase "Brightbot" bots
    Order Allow,Deny
    Allow from ALL
    Deny from env=bots
     
  3. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    13. Juni 2018
    Beiträge:
    209
    Danke erhalten:
    100
    Danke vergeben:
    146
    Das habe ich noch in die robots.txt geschrieben:
    Wie zuvor erwähnt, wenn was nicht funktioniert, einfach die Eintragungen wieder löschen, alles auf eigene Gefahr!

    # Blockiert die Bots, die uns zu sehr belasten/ angreifen:
    User-agent: Yandex
    Disallow: /
    User-Agent: MJ12bot
    Disallow: /
    User-agent: BLEXBot
    Disallow: /
    User-agent: SemrushBot
    Disallow: /
    User-agent: HTTrack
    Disallow: /
    User-agent: Linguee
    Disallow: /
    User-agent: dotbot
    Disallow: /
    User-agent: BUbiNG
    Disallow: /
    User-agent: Barkrowler
    Disallow: /
    User-agent : DAUM
    Disallow: /
    User-agent: MauiBot
    Disallow: /
    User-agent: AlphaSeoBot
    Disallow: /
    User-agent: ltx71 - (http://ltx71.com/)
    Disallow: /
    User-agent: InoopaBot
    Disallow: /
    User-agent: Cliqzbot
    Disallow: /
    User-agent: serpstatbot
    Disallow: /
    User-agent: um-IC
    Disallow: /
    User-agent: um-LN
    Disallow: /
    User-agent: Paracrawl
    Disallow: /
    User-agent: SEOkicks
    Disallow: /
    User-agent: SEOkicks-Robot
    Disallow: /
    User-agent: Scrapy
    Disallow: /
    User-agent: MTRobot
    Disallow: /
    User-agent: AwarioRssBot
    User-agent: AwarioSmartBot
    Disallow: /
    User-agent: Screaming Frog SEO Spider
    Disallow: /
    User-agent: DataForSeoBot
    Disallow: /
    User-agent: GeedoBot
    Disallow: /
    User-agent: polite-crawler
    Disallow: /
    User-agent: SeekportBot
    Disallow: /
    User-agent: Petalbot
    Disallow: /
    User-agent: Brightbot
    Disallow: /

    # Hier noch mal zu Ahrefs, falls dieser die Disallow-Einstellung ignoriert
    User-agent: AhrefsBot
    Crawl-Delay: 15
    Disallow: /go/
    Disallow: /*/go/
    Disallow: /images/view/
     
  4. IH59
    IH59 Erfahrener Benutzer
    Registriert seit:
    20. Februar 2018
    Beiträge:
    201
    Danke erhalten:
    20
    Danke vergeben:
    86
    Hallo Harry,

    ich Danke für deine Unterstützung, aber unser Provider hat sich der Sache schon angenommen !

    Das FTP geht schon wieder und der Bot kann so nicht ausgeschaltet werden denn er ignoriert die Einträge in der Robots.txt Datei und bleibt !

    Schalte ich denn Shop aus ist der Bot ganz weg
    Wenn ich mich wieder in denn Shop einlogge ist der Bot sofort wieder da und macht bis zu über 400 Einträge !

    Gruss Isabel
     
  5. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    1. September 2012
    Beiträge:
    2.707
    Danke erhalten:
    513
    Danke vergeben:
    173
    Über die htaccess bleibt er aber draußen. Das entscheidet der Webspace dann.
     
  6. mmatecki
    mmatecki Erfahrener Benutzer
    Registriert seit:
    24. Juni 2018
    Beiträge:
    841
    Danke erhalten:
    190
    Danke vergeben:
    86
    Könnte man so etwas auch über den GProtector durch Eintragung in die ip_blacklist.txt steuern und diese IP-Adressen aussperren?
     
  7. IH59
    IH59 Erfahrener Benutzer
    Registriert seit:
    20. Februar 2018
    Beiträge:
    201
    Danke erhalten:
    20
    Danke vergeben:
    86
    Man könnte es mit dem Protector machen, aber es sind 444 Verschiedene IP - Adresse !
     
  8. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    16. März 2012
    Beiträge:
    77
    Danke erhalten:
    8
    Danke vergeben:
    39
    Das gleiche Problem hatten wir seit gestern auch.

    Die kleine Änderung in der htaccess hat ihn ausgesperrt.

    Wenn doch alles so einfach wäre :)

    Vielen Dank Harry

    LG Daniel
     
  9. Christian Mueller
    Christian Mueller Beta-Held
    Registriert seit:
    4. Juli 2011
    Beiträge:
    3.824
    Danke erhalten:
    981
    Danke vergeben:
    312

    Warum macht Ihr Euch das Leben so schwer?
    Man kann es auch umgekehrt machen, indem man erst die gewünschten Bots freigibt und dann alle anderen sperrt.
    Macht die Sache wesentlich übersichtlicher und alle Bots die sich an die Regeln halten, bleiben draußen.
    Die anderen muss man dann am Besten über Firewallregeln sperren.

    Also so:

    Code:
    User-agent: Googlebot
    Disallow:
    
    User-agent: Bingbot
    Disallow:
    
    User-agent: DuckDuckGo
    Disallow:
    
    User-agent: *
    Disallow: /