Dawid Sobieraj 1 Zgłoś post Napisano Styczeń 16, 2013 Witam, Chciałbym przed rozpoczęciem czegokolwiek nieco poplanować, aby się upewnić co potrzebuje jeszcze wiedzieć. Posiadam kilku klientów na: -> hosting www, -> obsługe e-mail, Kilka własnych skryptów, stron. Aktualnie wszystko trzymam w jednym miejscu - serwer dedykowany. Ostatnio miałem jednak sytuacje, padła macierz dyskowa straciłem serwer na kilkagodzin = wszystkie usługi oczywiście zdechły. Praktycznie mógłbym sie tym uchronić ale to HA - klientowi głównie zależy na niskiej cenie. Jak rozwiązujecie problem hostingu ? : -> Narzędzia kontrolujące maszyne fizyczną - jej stan, smart ? -> Panel adm. DA -> Backup na RAID 1 + zewnętrzna maszyna - ftp(lokalnie - również RAID ), // dzienny Istnieje opcja ustalenia zasobów na użytkownika ? Rozdzielacie swoje usługi na serwer 1 www, serwer 2 email ... ? Udostępnij ten post Link to postu Udostępnij na innych stronach
Zoel 9 Zgłoś post Napisano Styczeń 16, 2013 Można na parę sposobów np: Serwer 1: WWW, FTP, poczta, DNS, DA/inny panel Serwer 2: MySQL, zapasowa poczta, zapasowy DNS Udostępnij ten post Link to postu Udostępnij na innych stronach
Pan Kot 1535 Zgłoś post Napisano Styczeń 16, 2013 (edytowany) a) Do monitoringu mojego serwera używam 2 wewnętrznych aplikacji i 2 zewnętrznych. Jest to odpowiednio Munin do kontroli wszystkich zasobów z poziomu serwera oraz parę monitor checków z Webmina. Jeśli chodzi o zewnętrzne to przede wszystkim jest to Pingdom (do samego stanu usługi) oraz OVH'owski RTM (i inne checki np. HTTP check). Efekt jest taki, że w przypadku złego smarta krzyczą mi już 3 alerty, w przypadku zwisu jakiejś usługi krzyczą mi 2 alerty, a jeśli serwer umrze całkowicie daje znać RTM oraz Pingdom. b) Panelów GUI do zarządzania nie lubię, ale ułatwiają sprawę i mam je głównie do możliwości executowania przez osoby trzecie skryptów, bez fizycznego dostępu do maszyny. Tutaj polecam Webmina, głównie przez to że jest darmowy, ale także przez to, że nie modyfikuje żadnych usług "na sztywno". Mam tu m.in ma myśli to, że niektóre usługi są wręcz uzależnione od panelu i bez niego poprawnie działać nie będą. c) RAID1 to must be dla każdego serwera produkcyjnego. W przypadku gdy jakiś feralny dysk przestanie działać to możesz go odbudować bazując na drugim. Tu oczywiście istnieje ryzyko, że padnie "wszystko", ale głównie jest to bezpieczne rozwiązanie. Na jednym z moich serwerów stosuję technikę, która można powiedzieć jest dopiero w stanie pracy . Składa się to z 1 dedyka i 1 chmury. DNS'y kierują odpowiednio na chmurę (primary) i na dedyka (secondary). Chmura odsyła usera na dedyka, ale jeśli dedyk z jakiś powodów umrze (ping będzie timed out przez minimum 2 minuty) to w tym momencie przez API automatycznie odpalana jest już druga specjalnie przygotowana chmurka, która ma aktualnie zapisane dane i przejmuje "działanie". Jeśli chmura #1 wykryje, że dedyk ponownie działa to kieruje ponownie userów na dedyka i po 5 minutach wyłącza chmurkę #2. W przypadku gdy załóżmy chmurka by nawaliła mamy secondary DNS sztywno na dedyku i niski TTL, przez co wciąż usługi są dostępne. Oczywiście co 24h chmurka #2 jest odpalana i dostaje nowe dane bezpośrednio z dedyka, a po zakończeniu syncowania po prostu się wyłącza. Jest to mocno "średnie" rozwiązanie ponieważ taki DNS failover ma swoje wady, ale z kolei zaletą jest to że położenie takiej infrastruktury jest możliwe tylko i wyłącznie gdy umrą obydwa serwery, a to z kolei jest tak jak z raidem1 . Do tego minimalizuje koszty bo tak naprawdę mamy tutaj wyłącznie koszt jednej, najtańszej chmury + extra koszty chmury #2, która jest włączana na 1h codziennie + jak dedyk odmówi posłuszeństwa. Edytowano Styczeń 16, 2013 przez Archi (zobacz historię edycji) Udostępnij ten post Link to postu Udostępnij na innych stronach