Zum Inhalt der Seite gehen

friendica - Link zum Originalbeitrag

Ich nutze fail2ban, um Bots und Crawler vom Server fernzuhalten. Da es aktuell ein Problem mit den Profilbildern von anderen Servern gibt, habe ich den Apache-Badbot Filter gestern testweise deaktiviert.

Das war keine gute Idee! Innerhalb von 15 Minuten wurde der Server von Bots förmlich überrannt. Der Webserver war am Limit, PHP und Datenbank erreichten die max. mögliche Anzahl von Verbindungen, die Last ging auf 130 - normal ist 7-12. Das endete mit einem Crash des Datenbankservers.

Zum Glück lief das Recovery der DB problemlos durch. Aber diese Bots und Crawler sind heutzutage echt eine Pest.

CC @Friendica Admins

Als Antwort auf Steffen K9 🐰

@Steffen K9 🐰 ungewöhnliches Verhalten... allerdings würde ich Fail2ban nicht für die BadBots nutzen und stattdessen die Bots über die htaccess aussperren.
Als Antwort auf Markus

htaccess ist dafür eine schlechte Idee. htaccess überhaupt ist eine schlechte Idee. Weil sie bei jedem Request eingelesen und abgearbeitet wird, letztlich ist htaccess nur eine Krücke, wenn man nicht direkt in die Webserver-Konfiguration schreiben darf/kann.
Da ist schon sinnvoll, auf Netzwerkebene zu blockieren (fail2ban eben), zumal wenn die Hardware schwachbrüstig ist.

Friendica Admins hat dies geteilt.

Unbekannter Ursprungsbeitrag

friendica - Link zum Originalbeitrag
Steffen K9 🐰

Die Liste der "bösen" User-Agent Strings im Filter-File ist enorm lang. Die möchte ich hier nicht reinkippen.

Ansonsten sieht der Abschnitt im local.jail so aus:

[apache-badbots]
port = http,https
logpath  = %(apache_access_log)s
bantime  = 72h
maxretry = 1
enabled  = true
Als Antwort auf Steffen K9 🐰

im Prinzip richtig, allerdings ist fail2ban auch kein Performance-Wunder. Wer die Netze kennt und im Vorfeld ausschließt, hat weniger Probleme.
Als Antwort auf Markus

fail2ban selbst tut ja gar nichts bis auf Logs monitoren und netfilter- (oder routing) Regeln setzen. Das Filtern macht der Kernel, performanter kann es kaum gehen.

Friendica Admins hat dies geteilt.

Als Antwort auf Steffen K9 🐰

klar, sieht man ja auch immer beim Neustart, wie performant das so ist und warum es Leute gibt, die genau aus diesen Gründen Crowdsec vorziehen. Lass gut sein Rainer...
Unbekannter Ursprungsbeitrag

friendica - Link zum Originalbeitrag
utopiArte

Der Versuch hier mit zu lesen und etwas zu verstehen hat nicht viel gebracht ..
🙁

In wiefern hilft fail2ban bei erfolglosen login versuchen?
Was machen die bots wenn nicht die oeffentlichen Inhalte durchsuchen?
Versuchen sie Passwoerter zu erraten?
Die oeffentlichen Inhalte werden doch hier durch fail2Ban nicht geschuetzt oder wie?

Friendica Admins hat dies geteilt.

Als Antwort auf utopiArte

Es gibt zwei Arten von Bots: Solche, die versuchen, in eine Website einzubrechen und solche, die einfach nur die Inhalte einer Wesite abgrasen, um sie zu indizieren.
Gegen die ersteren hilft fail2ban, weil er sie im Extremfall schon nach dem ersten Versuch blocken kann, ansonsten eben nach dem zweiten, dritten - ganz wie man mag. Man will die natürlich blocken, weil das brute-force-Angriffe sind, vielleicht wäre ja der zehntausendste Versuch erfolgreich. Außerdem belastet es den Server und müllt die Logfiles zu.
die anderen, die "Abgraser" (Crawler) sind manchmal brutal in dem Sinne, daß sie versuchen, in kürzester Zeit den Server abzugrasen. Da kann ein Webserver schnell in die Knie gehen.
Und dann noch die KI-Crawler, die Futter für ihre Sprachmodelle benötigen, um damit Geld zu verdienen. Manche Betreiber von Webseiten sehen nicht ein, daß sie dies KI-Maschinen für lau befüttern sollen.

Friendica Admins hat dies geteilt.