Skocz do zawartości

exa

Użytkownicy
  • Zawartość

    118
  • Rejestracja

  • Ostatnio

Wszystko napisane przez exa

  1. Nginx problem

    edit: pomyłka
  2. [opinia] HostNine.com

    Ostatnio jeden z klientów przed przenosinami na VPSa pytał, czy maszyna (VPS z 512 MB RAM) podoła jego portalowi (drupal z chyba autorskimi rozszerzeniami). Zapytałem gdzie obecnie trzyma stronę. Odpowiedział, że na koncie shared na hostnine.com . Przyznam, że byłem w lekkim szoku, bo strona ładowała się bez żadnej czkawki a klient pisał, że rejestruje do 15 tys. unikalnych użytkowników/dzień (alexa rank ~145000, czyli portal ma spory ruch). Tak jest na chyba każdym shared hostingu. M.in. tym to się różni od konta reseller.
  3. Specyficzny backup serwera

    How to split large file into several smaller files - Linux. Tak podzielony plik można później scalić też na windows: type filepart1 filepart2 > filefull Wygodniejszą opcją jest zainstalowanie na serwerze programu rar (http://rarlab.com/download.htm), który ma dzielenie na pliki i szyfrowanie w standardzie. Tylko, że archiwum tworzone RARem generuje się dłużej (przy szyfrowaniu bez kompresji) lub znacznie dłużej (przy szyfrowaniu i kompresji) niż gzipem czy bzipem. Do dużych archiwów raczej nadaje się tylko w opcji bez szyfrowania i bez kompresji.
  4. Specyficzny backup serwera

    Opcja dla osób bez rsynca: mój skrypt dla tych, którzy chcą wysyłać backup na wiele serwerów FTP (w szczególności jeden). Wymagany jest zainstalowany klient lftp (apt-get install lftp). Przykład z rozsyłaniem na konta FTP bazy danych. #!/bin/bash # katalog na backup dest_dir=/var/backup/ # Serwery FTP servers='ftp1.pl ftp2.pl' login=(login1 login2) pass=(haslo1 haslo2) remote_dir=(htdocs/backup1 www/backup2) # mysql sql_login=login sql_pass=pass sql_db=db ################## save_date=`date '+%Y-%m-%d_%H-%M-%S'` db_filename=$sql_db"_"$save_date".sql" filename=$db_filename".gz" # kopia cd $dest_dir echo -n "Backup bazy danych ($filename)... " mysqldump -u$sql_login -p$sql_pass --opt $sql_db > $db_filename gzip $db_filename echo "OK" i=0 for server in $servers; do echo "Kopiuje do $server... " l=${login[$i]} p=${pass[$i]} rd=${remote_dir[$i]} echo "open $server" > script.lftp echo "user $l $p" >> script.lftp echo "cd $rd" >> script.lftp echo "put $filename" >> script.lftp echo "quit" >> script.lftp lftp -f script.lftp echo OK i=$[i + 1] done; rm script.lftp # usuniecie starych kopii sprzed 60 dni find . -name $sql_db"_*" -ctime +60 -exec rm {} \; Można sobie bez problemu rozpisać o backup plików (tar ma np. opcję robienia backupu przyrostowego tak btw.) i dodać do crona (JarekMK: http://pl.wikipedia.org/wiki/Crontab). A jak ktoś chce wysyłać backup pocztą, to składnia dla mutta wygląda tak (dla mail z mail-utils z tego co pamiętam załącznik źle sie kodował i dołączał na Etchu [tak, przepuszczony przez uuencode] ): echo | mutt -s "backup z $save_date" -a "$filename" email@domena.tld To mi nie działało: uuencode "$filename" | mail email@domena.tld -s "backup z $save_date"
  5. Linux i wielkosc liter

    A czy nie zapisujesz tych plików na partycji FAT32?
  6. [opinie] Cheapvps.co.uk

    Offtop, bo cheapvps nie zakłada limitu na procesory. Na VPSach nie upycha się raczej więcej niż 10 klientów. Z resztą jeżeli piszą, że masz 40% rdzenia gwarantowane, to nawet jeżeli 9 pozostałych klientów w 100% wykorzystuje swoje przydziały teoretycznie powinieneś bez problemu mieć dostęp do całego swojego przydziału (teoretycznie, bo system się nie skaluje liniowo, jest przecież narzut czasu operacji I/O, przełączenie kontekstu i itd. przy 90% zasobów zajętych). Jeżeli w prohost obciążasz 5% to zapytaj czy to wynik dla rdzenia czy całego procesora(ów) oraz jaki to procesor.
  7. No nie bardzo . Sam VPS z 128 MB RAM będzie kosztował więcej niż 300 zł/rok. Upchanie DA na 128 MB też będzie kosztowało dodatkową pracę administratora. Maarek zerknij na ofertę prohost.pl
  8. Awstats szaleje

    Heh, masz ustawione odpalanie crona co minutę. W pole minut wpisz 0 a w pole godzin wpisz *, wtedy będzie co godzinę.
  9. Witam, mam poważny problem z apache, klient ma kilkaset vhostów i apache w pewnym momencie odmówił współpracy a w logach pojawiła się informacja o treści: [Mon Nov 10 16:16:07 2008] [crit] [client 83.14.X.X] (24)Too many open files: /.htaccess pcfg_openfile: unable to check htaccess file, ensure it is readable Więc wygląda na problem limitów otwartych procesów, to samo podpowiada google. Zwiększyłem limit z 1024 plików do 32768, wpisałem w /etc/security/limits.conf : * soft nofile 32768 * hard nofile 32768 Zrestartowałem maszynę, każdy użytkownik w systemie ma teraz zwiększoną ilość otwartych plików do 32768. Niestety apache znowu po niecałej godzinie zaczyna się wykrzaczać zapisując te same informacje w logu i przestając serwować pliki. Co ciekawe wygląda na to, że apache ignoruje zwiększone przeze mnie limity: ~ # pidof httpd 27362 27361 27355 27092 27091 27085 26688 26687 26682 26621 26620 26619 26618 26617 26616 26615 26613 26608 ~ # ls /proc/27362/fd/ Display all 1024 possibilities? (y or n) ~ # ls /proc/26608/fd/ Display all 1024 possibilities? (y or n) Apache zaraz po starcie otwiera 1024 deskryptory plików. Ktoś spotkał się z tym problemem?
  10. OVH Release 2 (distro na bazie Gentoo). 2.6.24.5-grsec-xxxx-grs-ipv4-32 #3 SMP Wed May 28 09:09:25 CEST 2008 i686 Intel(R) Celeron(R) CPU 2.66GHz GenuineIntel GNU/Linux
  11. Wyedytowałem /usr/include/bits/typesizes.h, przekompilowałem apache i zero zmian. Wyeksportowałem CFLASG (na przykładzie widać, że jest uwzględnione) ponownie zrekompilowałem i również nic to nie pomogło. apache # grep -iR ulimit * bin/apachectl:ULIMIT_MAX_FILES="ulimit -S -n `ulimit -H -n`" bin/apachectl:if [ "x$ULIMIT_MAX_FILES" != "x" ]; then bin/apachectl: $ULIMIT_MAX_FILES build/config_vars.mk:APACHECTL_ULIMIT = ulimit -S -n `ulimit -H -n` apache # ulimit -n -H 96768 apache # ulimit -n -S 96768 Nawet apache w Relese 2 ustawia ulimit przy starcie. Teraz sprawdzenie liczy otwartych deskryptorów wygląda tak: apache # ls /proc/3851/fd/ Display all 1025 possibilities? (y or n) W tym miejscu się zdziwiłem. Za każdym razem po restarcie jest 1025 uruchomionych. Serwer startuje po uruchomieniu z konsoli (przed rekompilacją też startował i działał). Klient używa WebMina i tu pojawia się problem. Po dodaniu każdej domeny/subdomeny należy zrestartować apache klikając na specjalny link. Po czym WebMin wyświetla: Serwer Apache nie może być uruchomiony: Apache nie wstaje a w logu pojawia się: [Wed Nov 12 16:08:49 2008] [error] (24)Too many open files: Init: Can't open server certificate file /usr/local/apache/conf/ssl.crt/server.crt Mam już dość.
  12. Dzięki za naprowadzenie, szkoda, że ten wątek jest na pierwszym miejscu w google pod hasłem "apache DFD_SETSIZE". Teraz jestem odcięty od internetu w domu; poprzez szybkie sprawdzenie na google parametr DFD_SETSIZE dotyczy tylko systemów FreeBSD i pochodnych. Ten stary dokument http://www-01.ibm.com/software/webservers/...escriptors.html mówi, że pod Linuksem w zasadzie obowiązuje tylko ulimit, chyba, że na kernel nałożony jest limit 1024 (tylko nie wiem czy to ogranicza ulimit, chyba nie?). Jak tylko moje połączenie z internetem wróci to to sprawdzę. Jeżeli ktoś miałby w międzyczasie inne pomysły będę wdzięczny za pomoc. Zainstalowany jest suexec, chciałem mieć 100% pewność.
  13. Też to wygooglowałem, ale klient ma czystą instalację PHP. System to gentoo OVH release 2 bez żadnych modyfikacji.
  14. OVH 1000gp

    Gdzie jest taka informacje? Z tego co pamiętam (a ledwo coś kojarzę) limit był chyba 10. Co do limitu transferu, to chyba panel coś im źle wyświetla, bo "Pojemność: 0 KB" (w "Transfer miesięczny") mam nawet przy Start 1M
  15. Serwer dla KuszoTV.pl

    [edit] Nie mogę się doszukać w strony z takim wynikiem: <!--Total queries=230; total cached=225-->
  16. w vpsrepublic.com limitują trafic wychodzący o czym nie piszą na stronie. Jarek na tym za $5.5 ma: Uplink Traffic(KB/s): 512 [edit] Zapomniałem, że nawet 1Mb ci wystarczy.
  17. Pytanie o indeksy - podwójne

    Tylko, że jak jest założony index i unique to miej na uwadze, żeby zdjąć ten "słabszy" (czyli index), bo inaczej możesz spowolnić bazę.
  18. Windows i domena PL

    Tego już sobie poszukaj na google, nawet nie wiemy jakiego serwera używasz. Zamiany w DNS będą widoczne po około 24 godzinach.
  19. Windows i domena PL

    Nie wiedziałem, nie mam domen w az. Czyli @northwest możesz a az.pl dodać ten wpis "A" do strefy DNS . Tak, będzie się pokazywała domena. Teraz, żeby wyświetlić coś pod tą domeną musisz skonfigurować serwer WWW do obsługi tej domeny.
  20. To mimo wszystko oficjalnie krzak. Pomimo tego, że chyba nikt się na nich nie skarżył, mają na karku dopiero 2 miesiące działalności (z tego co się orientuję) i brak jakichkolwiek danych firmy.
  21. http://www.cheapvps.co.uk/specials, mają promocję w cenie VPSa z 128 MB RAM.
  22. Windows i domena PL

    Zarejestruj się na freedns.sgh.waw.pl . Utwórz strefę podstawową o nazwie swojej domeny. Dodaj rekord "A" wpisują w pole "Nazwa" swoją domenę (z koniecznie kropką na końcu) a w IP wiesz już co wpisać. Następnie zaloguj się w az.pl i ustaw DNS1: fns1.sgh.waw.pl, DNS2: fns2.sgh.waw.pl . I tyle. Zmiana delegacji domeny może trwać do 24 godzin.
  23. Błąd czy ostrzeżenie? Bo to certyfikat self-signed i jest poprawnie wystawiony dla domeny, więc po akceptacji na stałe żadne ostrzeżenia nie powinny wyskakiwać (bez dodawania wyjątków do przeglądarki). Przynajmniej pod Firefox 2.x
×