Ich nutze fail2ban, um Bots und Crawler vom Server fernzuhalten. Da es aktuell ein Problem mit den Profilbildern von anderen Servern gibt, habe ich den Apache-Badbot Filter gestern testweise deaktiviert.
Das war keine gute Idee! Innerhalb von 15 Minuten wurde der Server von Bots förmlich überrannt. Der Webserver war am Limit, PHP und Datenbank erreichten die max. mögliche Anzahl von Verbindungen, die Last ging auf 130 - normal ist 7-12. Das endete mit einem Crash des Datenbankservers.
Zum Glück lief das Recovery der DB problemlos durch. Aber diese Bots und Crawler sind heutzutage echt eine Pest.
CC @Friendica Admins
Dieter Fröhling mag das.
Markus
Als Antwort auf Steffen K9 🐰 • • •Rainer "friendica" Sokoll
Als Antwort auf Markus • •Da ist schon sinnvoll, auf Netzwerkebene zu blockieren (fail2ban eben), zumal wenn die Hardware schwachbrüstig ist.
Friendica Admins hat dies geteilt.
Steffen K9 🐰
Unbekannter Ursprungsbeitrag • • •Die Liste der "bösen" User-Agent Strings im Filter-File ist enorm lang. Die möchte ich hier nicht reinkippen.
Ansonsten sieht der Abschnitt im local.jail so aus:
Markus
Als Antwort auf Steffen K9 🐰 • • •Rainer "friendica" Sokoll
Als Antwort auf Markus • •Friendica Admins hat dies geteilt.
Markus
Als Antwort auf Steffen K9 🐰 • • •utopiArte
Unbekannter Ursprungsbeitrag • • •Der Versuch hier mit zu lesen und etwas zu verstehen hat nicht viel gebracht ..
🙁
In wiefern hilft fail2ban bei erfolglosen login versuchen?
Was machen die bots wenn nicht die oeffentlichen Inhalte durchsuchen?
Versuchen sie Passwoerter zu erraten?
Die oeffentlichen Inhalte werden doch hier durch fail2Ban nicht geschuetzt oder wie?
Friendica Admins hat dies geteilt.
Rainer "friendica" Sokoll
Als Antwort auf utopiArte • •Gegen die ersteren hilft fail2ban, weil er sie im Extremfall schon nach dem ersten Versuch blocken kann, ansonsten eben nach dem zweiten, dritten - ganz wie man mag. Man will die natürlich blocken, weil das brute-force-Angriffe sind, vielleicht wäre ja der zehntausendste Versuch erfolgreich. Außerdem belastet es den Server und müllt die Logfiles zu.
die anderen, die "Abgraser" (Crawler) sind manchmal brutal in dem Sinne, daß sie versuchen, in kürzester Zeit den Server abzugrasen. Da kann ein Webserver schnell in die Knie gehen.
Und dann noch die KI-Crawler, die Futter für ihre Sprachmodelle benötigen, um damit Geld zu verdienen. Manche Betreiber von Webseiten sehen nicht ein, daß sie dies KI-Maschinen für lau befüttern sollen.
utopiArte mag das.
Friendica Admins hat dies geteilt.