Przeszukaj forum
Pokazywanie wyników dla tagów 'boty'.
Znaleziono 4 wyniki
-
Witam. Dostałem maila od hostingu superhost że obciążenie procesora jest powyżej 100%. Zalogowałem się do panelu i czasem jest nawet 1200%. Ogólnie od 12 dni mam dużo powyżej 200% i za 2 dni wyłączą mi stronę ze względu na obciążenie procesora. Czy ktoś może pomóc? Poniżej wklejam przykładowe logi. Więcej w załączniku. Jak zablokować to g... Dodam że poinstalowałem wtyczki zabezpieczające. Wpisałem IP które mnie atakowało, ale po chwili ataki są już nie z IP a z zestawu znaku + IP tak jak widać w pierwszej linijce obu ataków. Nie wiem jak to zablokować. Przykładowe logi ec2-34-229-55-110.compute-1.amazonaws.com - - [12/Apr/2018:09:51:58 +0200] "GET/index.php/galeria/?type_18=gallery&album_gallery_id_18=8&bwg_previous_album_id_18=7%2C7&bwg_previous_album_page_number_18=0%2C0&type_8=gallery&album_gallery_id_8=18&bwg_previous_album_id_8=18%2C18&bwg_previous_album_page_number_8=0%2C0&type_11=gallery&album_gallery_id_11=15&bwg_previous_album_id_11=14,14&bwg_previous_album_page_number_11=0,0 HTTP/1.1" 200 -"-" "MauiBot (crawler.feedback+wc@gmail.com)" crawl-66-249-64-83.googlebot.com - - [12/Apr/2018:09:51:22 +0200] "GET/index.php/galeria/?type_13=gallery&album_gallery_id_13=13&bwg_previous_album_id_13=12%2C12&bwg_previous_album_page_number_13=0%2C0&type_15=gallery&album_gallery_id_15=11&bwg_previous_album_id_15=10%2C10&bwg_previous_album_page_number_15=0%2C0&type_2=gallery&album_gallery_id_2=24&bwg_previous_album_id_2=24,24&bwg_previous_album_page_number_2=0,0 HTTP/1.1"200 708766 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" Dzwoniłem do superhosta, kazali przysłać zgłoszenie mailowe i dostałem taką wiadomość: "z tego co mogę zauważyć na serwerze występuje problem z nadmierną ilością analiz strony poprzez boty.Możemy poradzić zlimitowanie botów, poprzez dodanie do pliku robots.txt następującej wartości:User-Agent: Googlebot-ImageCrawl-Delay: 300Ograniczy to odwiedzanie strony przez boty google'a." Czy tak powinna zareagować taka firma?
-
Witam Z racji teraz że wszystko tak szybko się zmienia a jestem laikiem zapytam czy coś się istotnego zmieniło w kwesti baz danych dla stron internetowych oraz phpmyadmin? - Czy MySql nadal jest ok - Czy PhpMyadmin jest ok a może warto zainteresować się czymś nowszym (o ile istnieje) - Co jest te Percona ? - Właściwe to jak najprościciej można się zabrać za analizowanie bazy danych, wyciąganie informacji itp ? - Kwestie bezpieczenstwa. Mam wrażenie że strasznie dużo botów ruskich chodzi po stronkach. Kompletnie nie wiem jak to przenalizować i sprawdzić - Czy może być tak że jakaś domena jest "zainfekowana" Przyznam że taki temat trochę z "czapy" ale czuje że jestem bardzo do tyłu tak ten świat pędzi. Tak więc kilka słów od wyrozumiałego pro dla totalnego nuuba bedzie bardzo pomocne
- 6 odpowiedzi
-
- Phpmyadmin
- MySQL
-
(i 1 więcej)
Tagi:
-
Przypadkowo odkryłem atak na swoją stronę. Transfer został przekroczony o 192%. Konsultant poinformował mnie, że będę obciążony dodatkowymi kosztami w wysokości 3 zł za każdy 1 GB, a jeśli nie opłacę, to kolejny atak zablokuje mi stronę do 1 dnia kolejnego miesiąca. Jego zdaniem powinienem "to usunac [plik mp4] albo blokowac adresy ktore atakuja strone w pliku .htaccess" [pisownia oryginalna]". Atak był z jednego adresu IP, który wywoływał plik mp4 z mojej strony aż 150 tys. razy w przeciągu jednej nocy. Kto jest odpowiedzialny za atak i kto ponosi jego koszty? Dzięki za Wasze zdanie.
- 27 odpowiedzi
-
Potrzebuję zablokować globalnie boty generujące niepotrzebny transfer na całym vpsie (yandex, majestic, ahrefs itp). Wiem, że można to zrobić w htaccess i tak cały czas robię, ale wrzucane go do każdej domeny jak jest ich kilkaset jest trochę męczące. Czytałem, że można zrobić to w http.conf, ale jak wklejam tam regułkę: # Bots blocked SetEnvIfNoCase User-Agent "MJ12bot" bad_bot SetEnvIfNoCase User-Agent "rogerbot" bad_bot SetEnvIfNoCase User-Agent "AhrefsBot" bad_bot SetEnvIfNoCase User-Agent "DotBot" bad_bot SetEnvIfNoCase User-Agent "sitebot" bad_bot SetEnvIfNoCase User-Agent "LexxeBot" bad_bot SetEnvIfNoCase User-Agent "Yandex" bad_bot SetEnvIfNoCase User-Agent "Ezooms" bad_bot SetEnvIfNoCase User-Agent "ichiro" bad_bot SetEnvIfNoCase User-Agent "AppEngine-Google" bad_bot SetEnvIfNoCase User-Agent "deltascan" bad_bot SetEnvIfNoCase User-Agent "easydl" bad_bot SetEnvIfNoCase User-Agent "e-SocietyRobot" bad_bot SetEnvIfNoCase User-Agent "emeraldshield" bad_bot SetEnvIfNoCase User-Agent "exactseek" bad_bot SetEnvIfNoCase User-Agent "findlinks" bad_bot SetEnvIfNoCase User-Agent "freshcrawler" bad_bot SetEnvIfNoCase User-Agent "gigabot" bad_bot SetEnvIfNoCase User-Agent "ia_archiver" bad_bot SetEnvIfNoCase User-Agent "ichiro" bad_bot SetEnvIfNoCase User-Agent "irlbot" bad_bot SetEnvIfNoCase User-Agent "jeeves" bad_bot SetEnvIfNoCase User-Agent "jyxobot" bad_bot SetEnvIfNoCase User-Agent "korniki" bad_bot SetEnvIfNoCase User-Agent "netexperts" bad_bot SetEnvIfNoCase User-Agent "omniexplorer" bad_bot SetEnvIfNoCase User-Agent "psbot" bad_bot SetEnvIfNoCase User-Agent "python" bad_bot SetEnvIfNoCase User-Agent "psycheclone" bad_bot SetEnvIfNoCase User-Agent "shim-crawler" bad_bot SetEnvIfNoCase User-Agent "societyrobot" bad_bot SetEnvIfNoCase User-Agent "sproose" bad_bot SetEnvIfNoCase User-Agent "surveybot" bad_bot SetEnvIfNoCase User-Agent "turingos" bad_bot SetEnvIfNoCase User-Agent "wanadoo" bad_bot SetEnvIfNoCase User-Agent "wget" bad_bot SetEnvIfNoCase User-Agent "zongbot" bad_bot SetEnvIfNoCase User-Agent "zyborg" bad_bot SetEnvIfNoCase User-Agent "rogerbot" bad_bot SetEnvIfNoCase User-Agent "DotBot" bad_bot SetEnvIfNoCase User-Agent "python" bad_bot SetEnvIfNoCase User-Agent "psycheclone" bad_bot SetEnvIfNoCase User-Agent "shim-crawler" bad_bot < Location / > Order Allow,Deny Deny from env=bad_bot Allow from all < / Location > to po restarcie apacza nie działają mi domeny (jest info o nieprawidłowym przekierowaniu). Może z tym kodem jest coś nie tak?