Skocz do zawartości

koder

Użytkownicy
  • Zawartość

    60
  • Rejestracja

  • Ostatnio

Wszystko napisane przez koder

  1. Zgadzam się - 200GB to jeśli dobrze liczę 30 odsłon na sekundę w szczytowym ruchu, przydało by się do tego co najmniej 1GB ramu i SCSI (albo jeden solidny, albo macierz w RAID). W momencie gdy decydujemy się już na SCSI, to raczej nie ma sensu oszczędzać na procesorze. Jeżeli projekt dysponuje mniejszym budżetem, można spróbować oszczędzić na RAM - zacząć od 1GB (512 to za mało - sam apache zużyje tutaj ~300) i w razie potrzeby dołożyć. Można jeszcze spróbować znależć VPS, albo wirtualny serwer z wystarczającymi parametrami (znam takie, które podobne serwisy utrzymują).
  2. Trudno to określić, bez podstawowych danych, tj: * oczekiwana odwiedzalność serwisu * zastosowane oprogramowanie (skrypt do forum).
  3. Po prostu mamy do tego odpowiednią infrastrukturę. W przypadku jakiejkolwiek awarii w ciągu 60 sekund informowany jest cały personel (również przez SMS). Z tego 1 osoba ma obowiązek być dostępna przez cały czas i koordynować działania gdyby natura problemu przekraczała jego kompetencje, a 2 pozostałe mają po prostu mieć możliwość znalezienia się przy terminalu w ciągu tych 5 minut. Jak dotąd procedura nie zawiodła w żadnej sytuacji.
  4. Odkryłeś naszą tajemnicę. Oczywiście, jakbyśmy doglądali tylko "taniego hostingu", to by to się żadną miarą nie opłacało. Doglądamy go "przy okazji" [*] - i to naprawdę nie jest żadnym obciążeniem. * hint: firma obsługuje również płatności elektroniczne :-)
  5. Nie wierzę w zbieg okoliczności, żeby 3 administratorów jednocześnie było w toalecie ;-). Poważnie: mamy odpowiednie procedury, rozdział dyżurów i laptopy łączone po GPRS właśnie po to, by taki czas reakcji zapewnić. Do tego własna infrastruktura monitorująca - i w efekcie nie zdarzyła się jeszcze awaria systemu monitorowanego w ten sposób, na którą reakcja przekroczyła by 5 minut.
  6. Zależy, jakie wymagania ma klient :-) W wprzypadku typowego webserwera (linux/debian z naszego repozytorium pakietów) cała operacja zamyka się w 8h. Oczywiście, wybierając pakiet usług można liczyć na zniżki (np. do serwera dedykowanego instalacja oprogramowania gratis).
  7. Ty tak poważnie? Proszę uprzejmie: Wspomniane 60zł/h to cena skonfigurowania i obsługi maszyny w godzinach roboczych (9:00-17:00). Wszelkie prace poza tymi godzinami kosztują 120zł/h. Gotowość do usunięcia dowolnej usterki 24/7/365 (czas reakcji do 5 min) to dodatkowe 3000zł/mc. Dodatkowe zabezpieczenie finansowe podlega indywidualnej negocjacji. Jednak autor wątku raczej był zainteresowany wyłącznie wyborem sprzętu i ew. wstępną konfiguracją, więc wchodzi w grę wyłącznie wspomniane 60 zł/h.
  8. Pytanie

    Mam wrażenie, że usuwanie swojego posta po skomentowaniu go przez kogoś po to, by jego wypowiedź wyglądała dziwnie (bez kontekstu) nie jest najelegantszym sposobem dyskusji.
  9. MySQL 4.1

    W przypadku tego upgrade bardzo dużym problemem są właśnie podzapytania - otwierają nową drogę injekcji SQL. Instalacja obniży więc bezpieczeństwo serwisów klientów (czasem bardzo ciekawe rozwiązania się widuje). Przed takim krokiem zalecałbym sprawdzenie jak podatne na wspomnianą technikę włamania są hostowane serwisy (choćby - bardziej popularne CMS).
  10. Przeszkadza. Dlatego jeśli polski usługodawca kolokuje/dzierżawi serwery w stanach, to zwykle jednak ustawia naszą strefę czasową.
  11. W większości przypadków data jest wspólna dla całego serwera - więc będziesz raczej w strefie czasowej swojego usługodawcy.
  12. Całkowicie Cię rozumiem. Trzymając się jednak analogii smochodowej - podałeś parametry w rodzaju "chcę samochód europejski, niezawodny, którym mogę jechać 120 km/h" - do którego pasuje kilkaset modeli. Nie dziw się więc, że potencjalni sprzedawcy starają się zawęzić przedział - a cena jest tutaj najbardziej uniwersalnym (zrozumiałym przez wszystkich) kryterium. Możesz przecież podać również inne kryteria - oczekiwane łącze (szczytowo, w mbps), oczekiwane pingi, przestrzeń dyskowa, etc. W zależności od tego cena może się wahać od 50 do 1000 zł/mc. Większość serwerów które znajdziesz jest fizycznie w usa, z tego prostego powodu, że obecnie koszty dzierżawy/kolokacji serwera jest tam kilkakrotnie niższe, niż odpowiednika w Polsce. Obniżenie progu cenowego jest również powodem obecnego rynku, na którym roi się od nie do końca kompetentnych usługodawców. Osobiście radziłbym zainteresować się ofertą właśnie takiej firmy, koniecznie jednak weryfikując ją opiniami dotychczasowych kientów - a przy dobrze skonfigurowanym serwerze nie powinieneś odczuć żadnej różnicy. Ceny europejskie niestety powodują, że cena rośnie kilkukrotnie - sprawdź np. www.home.pl, www.netnova.pl, www.e9.pl ... możesz znaleźć dużo więcej przerzukując wht.pl i wh.pl na słowa "hosting pingi". Co do activ.pl - oczywiście, nie jest to oferta kierowana do reselerów, więc specjalnie nas nie dziwi, że nie spełnia ich oczekiwań.
  13. "Obiektywnych dokumentów"? A liczby nie są wystarczająco obiektywne? Dane do przykładu zawartego w tym wątku są wybrane jako średnia z 2000+ serwisów na jednym z naszych serwerów. Masz jakieś konkretne postawy do podważenia przedstawionych wyliczeń, czy tylko tupiesz nogą? :-P Uprzedzając: miałem pod swoją pieczą swego czasu farmę serwerków na 155Mbps w polsce, miałem na 20Mbps, aktualnie mam na 2Mbps i odpowiednik w stanach (po 100Mbps na maszynę). Na podstawie statystyk zużytego łącza mogę ocenić, że aktualnie wykorzystywane przez nas maszyny w USA obsługują trzy razy więcej surferów. To świadczy o rzeczywistej szybkości - i popiera moje wyliczenia. Na życzenie, jak wspomniałem, mogę przygotować benchmarka dowolnej maszyny.
  14. Masz kawałek racji, upraszczałem trochę. Konkretnie: 1. przez kilka sekund po rozpoczęciu transmisji socket servera jest w trybie "keepalive", czyli oczekuje na kolejne żądania. Wtedy odpada pierwsze negocjowanie połączenia ( SYN - SYN/ACK - SYN ), a zostaje tylko zwykłe żądanie i odpowiedź - które trwa (w/g przykładu) 120ms. 2. Większość współczesnych przeglądarek wysyła niemal jednocześnie żądania do wszystkich plików z grafiką zawartych na stronie. W tej sytuacji requesty "nakładają" się na siebie, i w rzeczywistości narzut na ściąganie całej grafiki nie powinien przekroczyć pojedyńczego. Oczywiście, tutaj wchodzi w grę wiele więcej czynników (np. szerokość łącza, czy też wykorzystywane bramki) - dlatego orginalny przykład uprościłem. W sumie można sobie oczywiście wyobrazić stronę, która lepiej będzie chodziła na wolniejszym łączu, ale z lepszymi pingami. Wystarczy, że będzie zawierała z 200-300 kilkunastobajtowych obrazków. Ale śmiem twierdzić, że w solidnej większości przypadków jedank szersze pasmo wygrywa :-)
  15. Jeśli klient chce wydać 5-10k miesięczne, to raczej zrobi sobie także ekspertyzę za 1-2k, co to mu się najbardziej opłaca, a nie patrzy po pingach :-) I owszem, robimy takie ekspertyzy. Jeżeli zaś chodzi Ci o jakiegoś "gotowca", którego można by przedstawić swoim klientom - to niestety, nie oferujemy. Z prostej przyczyny - na razie bardziej się opłaca nam indywidualne podejście do klienta. Chyba, że masz ochotę za taki tekst zapacić, naturalnie :-) Oczywiście nie wykluczam, że taka publikacja powstanie - nasi "kreatywni" przebąkują coś o portalu hostingowym od pewnego czasu. Ale nie dam wiążącego terminu. Jeżeli zaś interesuje Cię to z technicznego punktu widzenia, to mogę przekleić tu wyniki benchmarków. Wysłany Pią Paź 15, 2004 2:06 pm: @wojt-ek: Wszystko zależy od usługodawcy, jego kompetencji i jakości sprzętu. Przecież jest chyba naturalne, że w każdej chwili można znaleźć taką parę serwerów polska-usa, że będzie szybszy krajowy, albo zagraniczny. Wyliczenia były z założeniem tej samej jakości usługi - z różnicą tylko w lokalizacji. Jeżeli chcesz zobaczyć jak działa solidnie skonfigurowany serwer w dobrej serwerowni - to zapraszam do założenia konta testowego u nas i sprawdzenie w "na żywo"
  16. Ciekawe podejście? U nas robi się po prostu to, czego klient wymaga. U Was jest inaczej? Z mojego doświadczenia, to statystyczny klient nie chce przegryzać się przez dokumentację - chce po prostu szybko działającą stronkę. Najlepszą metodą na zrobienie tego jest jednak pokazanie klientowi, że jego strona działa szybko - po to mamy okresy testowe, gdzie sobie każdy może organoleptycznie sprawdzić. Jeśli klient jest dociekliwy, to może liczyć na indywidualne, dostosowane do niego przedstawienie i objaśnienie wyników testów )oraz ich przyczyn) - bo przecież nie najlepszym podejściem jest wymaganie od klienta specjalistycznej wiedzy. Jeżeli zaś chodzi o gotowe publikacje, to wybacz, ale po to mamy w dziale w sumie 25 lat studiowania informatyki za sobą, żeby mieć kwalifikacje by takie publikacje pisać.
  17. Wiesz, generalnie klienci po to nam płacą, żeby się takimi szczegółami nie przejmować. Strona ma chodzić szybko, i tyle. Nie interesuje ich zwykle, czy jest w Polsce, w stanach, czy na księżycu. Jeżeli chodzi o badania - owszem mam benchmarki naszych serwerów - przecież nie zainwestowalibyśmy ciężkiej kasy w sprzęt i łącze za granicą gdybyśmy nie byli pewni efektów. Ale to są dokumenty wewnętrzne i ściśle techniczne - przypuszczam, że ktoś bez choćby podstawowych kwalifikacji administratora nie będzie potrafił wyciągnąć z nich jakichkolwiek dane. A wybacz, jeśli ktoś takie kwalifikacje posiada to raczej nie potrzebuję mu takich rzeczy udowadniać.
  18. Wiesz, nie przyszło mi nigdy do głowy, żeby udowadniać taką oczywistość. Ale proszę uprzejmie: Załóżmy, że statystyczna strona ma objętość 100kB. Zakładamy również identyczną konfigurację serwera. Załóżmy w końcu 10 klientów starających się obejrzeć stronę jednocześnie. Przy łączu 2Mbps na klienta przypada 0.2Mbps - strona ściąga w 4000ms (100kB to 800 kbitów). Przy łączu 10Mbps na klienta przypada 1Mbps - strona ściąga się w 800ms. Łącze 2M w kraju kosztuje więcej niż 10M w np. USA. Narzut na rozpoczęcie transmisji pliku to ok. 2.5x PING (SYN - SYN/ACK - SYN - request - odpowiedź). Dla serwera "polskiego" (ping 20, łącze 2M) mamy więc: 50ms narzut na rozpoczęcie transmisji, 4000ms samej transmisji. W sumie: 4050ms. Dla serwera "zachodniego" (ping 120, łącze 10M) mamy za to: 300ms narzut na rozpoczęcie transmisji, 800ms samej transmisji. W sumie 1100ms. 1100 to mniej niż 4050. Ceny są zbliżone. QED. Jeśli nie czujesz się przekonany, mogę zestawić dwa serwery do porównania. Ale jako, że nasza firma MA serwery i w Polsce, i w USA, to raczej wiem co mówię ;-). Oczywiście dla większych plików rośnie przewaga USA, a mniejszych - Polski. Tylko policz sobie, kiedy Polska zaczyna prowadzić.
  19. A przepraszam, do jakich celów 120 ms jest dużo? Bo chyba nie do webhostingu - szczególnie, że większa przepustowość zwykle oznacza, że strony się ładują szybciej niż z odpowiednika w kraju.
  20. co byście polecili

    1. Nie znikaj mi klientów, proszę . Fakt - jak ktoś ma zamiar inwestować pieniądze tego rzędu, to bierze raczej cluster, albo jakiegoś SUNa. Ale miałem wrażenie, że interesuje cię bardziej "ekonomicznie" rozwiązanie. 2. Jak chcesz, to postawię ci serwer bez limitu transferu na łączu 50kbps, bez limitu transferu, za 250zł/mc. ;-) Poważnie: łącze bez limitu transferu to tak jak torba bez limitu wagi ładunku. Niby może być, ale objętość i tak cię w końcu ograniczy. Fizyki nie przeskoczysz. edit: gb: Nie wiem jak ty, ale ja osobiście kiedyś miałem na polskim łączu 155 Mbps kilka serwerów (w prywatnej serwerowni, na pol34). Fakt - łącze dzierżawione z uczelni było bo bardzo fajnej cenie. Jednak po "ciekawostkach" jakie TPSA zrobiła na bramce (co w efekcie obcięło nam 95% klientów do 10Mbps) zmuszeni byliśmy szukać alternatyw. Co prawda wiadomości mam sprzed pół roku, ale za to dość kompletne - gdyś w researchu nie pomijaliśmy żadnego poważneog providera. Wiem co mówię - w polsce za 100Mbps zapłacisz 100,000 przy rewelacynej ofercie. Jeśli chodzi o DNS - fakt, średni ruch dobowy to 100kbps - jednak rejestruję bardzo duże chwilowe skoki. Jeżeli miałbym łącze wolniejsze - oznacza to zauważalne dla surfera opóźnienie. Obecnie mamy chyba optymalne rozwiązanie - DNS stoi na 2Mbps w biurze - a tc pilnuje, żeby miał absolutny priorytet w dostępie do łącza. W końcu - rzeczywiście, 2-3 Mbps spokojnie wystarczą przy 1000 kont klienckich. Tylko są inwestycje (np. masowy hosting), przy których punkt "zwrotu inwestycji" jest w momencie przekroczenia 1000 kont na miesiąc.
  21. co byście polecili

    Przedstawione poniżej dane nie mają charakteru oferty handlowej w rozumieniu prawa :-) Na początek oferta pakietowa, żeby był punkt odniesienia "o jakiej kasie mówimy": Niesety, serwer o tych parametrach nie da rady nasycić 100Mbps łącza - IME pociągnie najwyżej 10-15Mbps. Jeśli kogoś interesuje serwer (pojedyńczy) zdolny nasycić 100Mbps łącze, to mniej-więcej będzie wyglądał tak: Oczywiście do takich zastosowań to lepiej nadałby się webcluster, ale tutaj to już wycena inwestycji kosztuje, więc może się wstrzymam :-). edit: Ah, gdyby ktoś zastanawiał się nad podobnymi łączami w polsce - cena jest ok. 8x wyższa. Sens ma najwyżej postawienie sobie primary DNS na 1-2Mbps. edit2: Wszstkie przepustowości łącza są podane "do backbone", nie "do routera brzegowego", naturalnie :-)
  22. Witam, Ostatnio w polsce jak grzyby po deszczu powstają "firmy" hostingowe składające się z jednej osoby+dedyka na zachodzie. Można wyróżnić kilka wspólnych cech: * mikroceny, * brak zaplecza ludzkiego, * często brak jakichkolwiek informacji o zapleczu "firmy", * często nie jest to nawet firma (dlatego cudzysłów) Każdy na pewno zdaje sobie sprawę z tego, że "firma" taka liczy na szybkie nabicie kasy rocznymi abonamentami, które ma zwrócić kosz serwera. Nie jest również tajemnicą fakt, że taka "jednoosobowa" działalność konkuruje z poważnymi firmami jedynie ceną. Nie jest też w końcu dla nikogo zaskoczeniem, że zdarzają się "zniknięcia" w momencie przeholowania z overselingiem usług. Dlatego nie o tym chciałem rozmawiać. Interesuje mnie za to kwestia, jak takie inicjatywy odbijają się na rynku. Maksymalnie zaniżone ceny stanowią konkurencję, którą przebić mogą tylko nieliczne poważne firmy - chociaż z tego powodu, że zasoby wykorzystywane w hostingu kosztują (faktycznie - im się więcej zużywa, tym mniej), ale utrzymanie personelu nadzorującego cały interes również. Można więc oczekiwać powolnej migracji do "tańszych" odpowiedników. Z drugiej strony, "pad" takiej "firmy" pozostawia często kilkuset klientów którzy na gwałt potrzebują solidnego hostingu - i często nauczeni doświadczeniem mogą zapłacić więcej za pewność, że historia się nie powtórzy. Mamy więc dwa sprzeczne ze sobą trędy i szczerze powiedziawszy trudno mi określić, czy masowe powstawianie i padanie takich "firm" odbije się pozytywnie, czy negatywnie na rynku. Co sądzicie na ten temat? Czy może ktoś ma może doświadczenia jak to się odbiło na rynku w krajach, gdzie "interes na hostingu" robi się dłużej niż w Polsce?
  23. O ile z resztą wypowiedzi trudno się nie zgodzić, to tutaj mam jedno zastrzeżenie. Owszem, mogą być takie niskie. Wystarczy, że hosting nie jest jedyną działalnością firmy i wykorzystuje ona istniejącą architekturę do prowadzenia dodatkowej usługi.
  24. Apache a moze,,,,

    Wiesz, nie ufał bym porównaniu, które firma robi między produktem swoim a konkurencyjnym. Osobiście, na produkcyjnym serwerze nie stawiał bym niczego poza Apache. Masz pełną zgodność z RFC, bezpieczeństwo, wydajność i kompatybilność.
×