ednet 136 Zgłoś post Napisano Wrzesień 8, 2007 Witam Mam dość dużo sklepów i katalogów opartych o własne oprogramowanie. Duża część z tych sklepów ma bardzo niską odwiedzalność więc dla serwera nie stanowi to obciążenia. Jednak jeśli robot jakiejś wyszukiwarki indeksuje zawartosc sklepu to powoduje to dość duży w stosunkowo krótkim czasie. Z jakimi przerwami robot indeksuje poszczególne podstrony? Czy są to wartości rzędu 1-2 sekundy czy większe? Pozornie tematyka postu nie związana z tym forum, jednak mam na myśli obciążenie serwera jeśli trafi się kika indeksowań w tym samym czasie. Ed Udostępnij ten post Link to postu Udostępnij na innych stronach
Tomi 0 Zgłoś post Napisano Wrzesień 8, 2007 Jeśli chodzi o roboty to są ich setki i są to rożne typy robotów. Google ma swojego robota, którego można określić co do szybkości indeksacji Do tego służy Sitemaps http://www.google.pl/intl/pl/webmasters/ Google może indeksować po 3 strony dziennie aby nie robić przeciążenia. Udostępnij ten post Link to postu Udostępnij na innych stronach
Hoste.pl 8 Zgłoś post Napisano Grudzień 10, 2007 Jednak jeśli robot jakiejś wyszukiwarki indeksuje zawartosc sklepu to powoduje to dość duży w stosunkowo krótkim czasie.Ed Można zastosować opóźnianie działania robotów poprzez polecenie np. sleep(20), napewno wpłynie to na zmniejszenie obciążenia serwera. Ale wszystko zależy od tego, co dla Ciebie jest priorytetem, jeśli obciążenie to nie za dobrze wyjdziesz z pozycjonowaniem, i odwrotnie. Można blokować, spowalniać różne niechciane roboty, o tym na innych forach znajdziesz wiele informacji, ale nie polecałbym "przeszkadzać" robotowi Google, lepszym rozwiązaniem będzie zainwestowanie w wyższe procentowe obciążenie serwera lub zmianę usługodawcy hostingowego. -- Tanie serwery Rejestracja domen Udostępnij ten post Link to postu Udostępnij na innych stronach
Info-Cal 0 Zgłoś post Napisano Grudzień 11, 2007 Tak jak powiedział Hoste.pl - zależy co dla Ciebie jest ważniejsze. A i tak najlepszym rozwiązaniem będzie nie blokować robaka, tylko zainwestować w lepszy sprzęt. Weź pod uwagę także to, że mogą się zdażyć takie dni, że Google zechce przeindeksować każdą Twoją podstonę, która już ma w pamięci - wtedy to dopiero daje się we znaki, jak w ciągu 1-3 dni ponad 50% transferu zejdzie Udostępnij ten post Link to postu Udostępnij na innych stronach
moron 0 Zgłoś post Napisano Grudzień 11, 2007 3 dni? u mnie google tydzien potrafi siedziec Udostępnij ten post Link to postu Udostępnij na innych stronach
nvu 24 Zgłoś post Napisano Grudzień 11, 2007 To zależy jaki masz kod w metatagach. Może być 3,7 albo 14 dni. Udostępnij ten post Link to postu Udostępnij na innych stronach
moron 0 Zgłoś post Napisano Grudzień 11, 2007 heh a to w meta mozna mu napisac ile ma siedziec? nie czytalem ostatnich nowosci ale kiedys sie pisalo co ile ma wpadac tylko Udostępnij ten post Link to postu Udostępnij na innych stronach
MasterNETpl 100 Zgłoś post Napisano Grudzień 11, 2007 Z tego co kieeedyś czytałem google nie patrzy na interval odwiedzin robota w meta tagach. Pobaw się narzędziami na koncie google. Udostępnij ten post Link to postu Udostępnij na innych stronach
moron 0 Zgłoś post Napisano Grudzień 11, 2007 o wlasnie - tam jest taka opcja zeby serwerow nie obciazac Udostępnij ten post Link to postu Udostępnij na innych stronach
Info-Cal 0 Zgłoś post Napisano Grudzień 12, 2007 @morom - mi chodziło o to, że google może i siedzieć miesiąc, ale sobie "pyka" tak po jednej stornie, a może się zdarzyć tak, że w 3 dni ostro zacznie przeszukiwać stronę wtedy to transfer schodzi jak basenie z którego spuścimy wodę Udostępnij ten post Link to postu Udostępnij na innych stronach
moron 0 Zgłoś post Napisano Grudzień 12, 2007 siedze troche w SEO i nie musisz mi tego powtarzac mialem przypadki ze google mi trzymalo sesje przez 2 tygodnie normalnie jak load mi w nocy schodzi prawie do 0 to przez boty byl na poziomie 3... dopiero po (oczywiscie tylko na 1 dzien zeby sie odczepil) zbanowaniu (w szczycie ciezko bylo :/) load spadl Udostępnij ten post Link to postu Udostępnij na innych stronach
MasterNETpl 100 Zgłoś post Napisano Grudzień 12, 2007 Są znacznie bardziej obciążające roboty (wynalazki) które dorwą się do strony zwłaszcza z włączonym wildcardem. Wystarczy tylko logi przeglądać co jakiś czas. Udostępnij ten post Link to postu Udostępnij na innych stronach
Gość Bartosz Gadzimski Zgłoś post Napisano Grudzień 12, 2007 Najlepiej to w robots.txt zablokować roboty msn i yahoo. Oczywiście można zablokować całą resztę, baidu też się udziela. Z mojego doświadczenia yahoo obciąża najbardziej bo robi "naloty" i jednocześnie pobiera ogromną ilość podstron. Udostępnij ten post Link to postu Udostępnij na innych stronach
MasterNETpl 100 Zgłoś post Napisano Grudzień 12, 2007 Jak i również różnego typu wynalazki typu roboty: Azerus, Notate, Cazoodlebot, Twister, Watchmouse, holmes, VisBot, Feedster i masę innych gniotów które na prawdę potrafią zabrać sobie odpowiednią ilość transferu jak i samego obciążenia. Udostępnij ten post Link to postu Udostępnij na innych stronach
Gość Bartosz Gadzimski Zgłoś post Napisano Grudzień 13, 2007 Adrianie z małym wyjątkiem: "holmes" jest to silnik używany przez Onet.pl więc holmes - OnetSzukaj radzę zostawić w spokoju. Udostępnij ten post Link to postu Udostępnij na innych stronach
wielokropek 0 Zgłoś post Napisano Grudzień 13, 2007 Czy można gdzieś znaleźć gotowe .htaccesy lub robots.txty które blokują najbardziej obciążających? Udostępnij ten post Link to postu Udostępnij na innych stronach