Edart 239 Zgłoś post Napisano Kwiecień 22, 2012 na jednym z serwerów udostępniłem klientom wykresy zużycia cpu i ram z określonym limitem, choć nie limituję na sztywno . po kilkunastu dniach: właściciele kont co mają czerwone wykresy, wysłali zapytań odnośnie obciążenia w liczbie zero konta które stale co dzień przekraczają i to sporo "normalne" granice obciążeń, nadal je generują, nikt nic nie zrobił podsumowanie: granica hostingu współdzielonego jest tam gdzie dana firma na to pozwoli. na pewno teoretycznie większe firmy mogą sobie pozwolić na większą pobłażliwość, bo jest więcej sprzętu, ale z drugiej strony nie pozwala na to automatyka, nie da się doglądać "ręcznie" poszczególnych kont, za duża strata czasu, więc każdy tą granicę ma inną. Ja uważam że serwisy generujące ponad 100GB miesięcznie powinny już być na vpsach, ale to też takie ogólne stwierdzenie, dla "kowalskiego", bo trzeba by od razu to uzupełnić o zużycie innych zasobów, czy ilość plików, czy choćby o nieporuszany a ważny temat pingowania domeny, blastów, rss-ów i innych wynalazków. Udostępnij ten post Link to postu Udostępnij na innych stronach
Prohost 345 Zgłoś post Napisano Kwiecień 22, 2012 U nas już dawno rozwiązany jest problem tej granicy. Twarde limity, statystyki i odpowiednie ceny. Stabilność i szybkość na każdym serwerze. Szybkie odfiltrowanie klientów którzy mają nierealne wymagania za nierealną cenę. Oczywiście "nierealni" nie muszą być zadowoleni ale nie jesteśmy przecież od dofinansowania czyjegoś interesu. "Realni" są zadowoleni. Wystarczy zdecydować która grupa jest lepszym targetem. Nie można dogodzić każdemu - ktoś zawsze ucierpi. Wysyłane z mojego HTC Desire HD A9191 za pomocą Tapatalk 2 Udostępnij ten post Link to postu Udostępnij na innych stronach
nmn 6 Zgłoś post Napisano Kwiecień 23, 2012 Podstawa to statystyki obciążenia, które można pokazać takiemu klientowi, najlepiej jeszcze żeby statystyki obejmowały jakiś okres wstecz. Nie dziwie się klientom, że mogą się czuć oszukani/naciągani jeśli firma nie jest w stanie udostępnić takich statystyk, tym bardziej, że często klient nic nie zmienia na swoim koncie od X czasu a nagle dostaje info o nadmiernym obciążeniu. Wtedy takie statystyki rozwiejąwszelkie wątpliwości. Udostępnij ten post Link to postu Udostępnij na innych stronach
kafi 2425 Zgłoś post Napisano Kwiecień 23, 2012 Powiem wam szczerze, że czasami jak do nas klienci przychodzą i mówią, że w firmie takiej i takiej wykorzystywali 20% CPU i czy to nie będzie problem. Uruchamiamy konto i co widzimy, że konto wcale takie "straszne" nie jest. W takiej sytuacji zaczynam sie zastanawiać skąd inni biorą takie fajne wartości i na czym FAKTYCZNIE są hostowane takie konta :-) Widzisz... tylko czasami sa to problemy, ktore uwidaczniaja sie dopiero po jakims czasie uzywania konta. Przykladowo - bazy mysql bez indeksow, dodatkowo majace spory overhead. Przy imporcie baza sobie jakos to poczatkowo pouklada, ale wraz z jej uzywaniem znowu sie zasmieci. Dodatkowo - niektore aplikacje i ich programisci... chociazby ostatnio ktos, kto na tym forum usilnie probowal zmuszac baze do tego, aby zwrocila mu caly rowset tylko po to, zeby... mogl go policzyc przez php. Udostępnij ten post Link to postu Udostępnij na innych stronach
Gość nrm Zgłoś post Napisano Kwiecień 23, 2012 przykład sprzed tygodnia, bodajże Kolopika pokazuje, że niektórzy CHCĄ mieć sztywne limity Nigdy wszystkim nie dogodzisz. Udostępnij ten post Link to postu Udostępnij na innych stronach
trustnet 38 Zgłoś post Napisano Kwiecień 23, 2012 Myślę, że zależy jakie limity - limit transferu: raczej nie, bo faktycznie klient może nie wiedzieć, że przekroczy, ale limit pojemność: jasne, że tak - to się nie zmienia z minuty na minutę. Limit procesora/pamięci - tak, z bardzo prostego powodu - jak ktoś zrobi większe obciążenie "niby "chwilowo" - to jak wytłumaczyć innym, że tamten inny miał "chwilowo" a oni _teraz_ poczty nie mogą odebrać ... Udostępnij ten post Link to postu Udostępnij na innych stronach
trustnet 38 Zgłoś post Napisano Kwiecień 23, 2012 Stawiałbym tezę, że pewnych rzeczy nie da się przewidzieć. Kliencie czasem się nieprzewidywalni. Miałem już przypadki gdzie ktoś odpalił coś co spowodowało tyle wejść na stronę (na której były duże dane typu np. generowane w locie fotki) i serwer nawet mający zapasy mocy nie jest w stanie tego przeżyć. Technicznie - klient nie przekroczy transferu (bo jest to np. chwilowe zatem zmieści się), ale serwer dostanie np. loadu 20-100 i foldery imapa innych klientów będą się synchronizowały wieczność, bo za jeżdżeniem po bazie, poleci moc procesora i ostatecznie odczyty/zapisy na dysku. I tego nie da się przewiedzieć, Miałem już takie przypadki, np. nowa galeria fotografii z podróży bardzo znanej aktorki serialowej - poparte newsletterem, że "już są" ... Dlatego jestem za limitowaniem pewnych rzeczy - niech Klient też trochę myśli, co się stanie ... ale inni klienci mają stabilność i nie zauważają problemu. Udostępnij ten post Link to postu Udostępnij na innych stronach
trustnet 38 Zgłoś post Napisano Kwiecień 23, 2012 Nie zawsze wzrost ruchu na stronie = zajechanie bazy. Wspomniałem o tym w poprzednim poście, nie da się tego przewidzieć. No właśnie, ale jak to się stanie ? trochę problem ... problem głównie dla innych na tym samym serwerze. Dlatego wolałbym jednak automatem ograniczyć. Oczywiście to musi być sensowne ograniczanie, np. ubijanie procesów powyżej jakiejś ich liczby - co na wielu serwerach współdzielonych jest. Ubija to procesy tego klienta który przekracza - zatem część jego klientów widzi poprawnie stronę, a część nie. Ale wszyscy inni na tym samym serwerze nie są zagrożeni ;-) Oczywiście tak jak pisałem wcześniej samo np. blokowanie po przekroczeniu transferu jest błędne. Udostępnij ten post Link to postu Udostępnij na innych stronach