-
Zawartość
118 -
Rejestracja
-
Ostatnio
Typ zawartości
Profile
Fora
Katalog firm
Wszystko napisane przez exa
-
Ostatnio jeden z klientów przed przenosinami na VPSa pytał, czy maszyna (VPS z 512 MB RAM) podoła jego portalowi (drupal z chyba autorskimi rozszerzeniami). Zapytałem gdzie obecnie trzyma stronę. Odpowiedział, że na koncie shared na hostnine.com . Przyznam, że byłem w lekkim szoku, bo strona ładowała się bez żadnej czkawki a klient pisał, że rejestruje do 15 tys. unikalnych użytkowników/dzień (alexa rank ~145000, czyli portal ma spory ruch). Tak jest na chyba każdym shared hostingu. M.in. tym to się różni od konta reseller.
-
How to split large file into several smaller files - Linux. Tak podzielony plik można później scalić też na windows: type filepart1 filepart2 > filefull Wygodniejszą opcją jest zainstalowanie na serwerze programu rar (http://rarlab.com/download.htm), który ma dzielenie na pliki i szyfrowanie w standardzie. Tylko, że archiwum tworzone RARem generuje się dłużej (przy szyfrowaniu bez kompresji) lub znacznie dłużej (przy szyfrowaniu i kompresji) niż gzipem czy bzipem. Do dużych archiwów raczej nadaje się tylko w opcji bez szyfrowania i bez kompresji.
-
Opcja dla osób bez rsynca: mój skrypt dla tych, którzy chcą wysyłać backup na wiele serwerów FTP (w szczególności jeden). Wymagany jest zainstalowany klient lftp (apt-get install lftp). Przykład z rozsyłaniem na konta FTP bazy danych. #!/bin/bash # katalog na backup dest_dir=/var/backup/ # Serwery FTP servers='ftp1.pl ftp2.pl' login=(login1 login2) pass=(haslo1 haslo2) remote_dir=(htdocs/backup1 www/backup2) # mysql sql_login=login sql_pass=pass sql_db=db ################## save_date=`date '+%Y-%m-%d_%H-%M-%S'` db_filename=$sql_db"_"$save_date".sql" filename=$db_filename".gz" # kopia cd $dest_dir echo -n "Backup bazy danych ($filename)... " mysqldump -u$sql_login -p$sql_pass --opt $sql_db > $db_filename gzip $db_filename echo "OK" i=0 for server in $servers; do echo "Kopiuje do $server... " l=${login[$i]} p=${pass[$i]} rd=${remote_dir[$i]} echo "open $server" > script.lftp echo "user $l $p" >> script.lftp echo "cd $rd" >> script.lftp echo "put $filename" >> script.lftp echo "quit" >> script.lftp lftp -f script.lftp echo OK i=$[i + 1] done; rm script.lftp # usuniecie starych kopii sprzed 60 dni find . -name $sql_db"_*" -ctime +60 -exec rm {} \; Można sobie bez problemu rozpisać o backup plików (tar ma np. opcję robienia backupu przyrostowego tak btw.) i dodać do crona (JarekMK: http://pl.wikipedia.org/wiki/Crontab). A jak ktoś chce wysyłać backup pocztą, to składnia dla mutta wygląda tak (dla mail z mail-utils z tego co pamiętam załącznik źle sie kodował i dołączał na Etchu [tak, przepuszczony przez uuencode] ): echo | mutt -s "backup z $save_date" -a "$filename" email@domena.tld To mi nie działało: uuencode "$filename" | mail email@domena.tld -s "backup z $save_date"
-
A czy nie zapisujesz tych plików na partycji FAT32?
-
Offtop, bo cheapvps nie zakłada limitu na procesory. Na VPSach nie upycha się raczej więcej niż 10 klientów. Z resztą jeżeli piszą, że masz 40% rdzenia gwarantowane, to nawet jeżeli 9 pozostałych klientów w 100% wykorzystuje swoje przydziały teoretycznie powinieneś bez problemu mieć dostęp do całego swojego przydziału (teoretycznie, bo system się nie skaluje liniowo, jest przecież narzut czasu operacji I/O, przełączenie kontekstu i itd. przy 90% zasobów zajętych). Jeżeli w prohost obciążasz 5% to zapytaj czy to wynik dla rdzenia czy całego procesora(ów) oraz jaki to procesor.
-
PW poszło.
-
No nie bardzo . Sam VPS z 128 MB RAM będzie kosztował więcej niż 300 zł/rok. Upchanie DA na 128 MB też będzie kosztowało dodatkową pracę administratora. Maarek zerknij na ofertę prohost.pl
-
Heh, masz ustawione odpalanie crona co minutę. W pole minut wpisz 0 a w pole godzin wpisz *, wtedy będzie co godzinę.
-
Witam, mam poważny problem z apache, klient ma kilkaset vhostów i apache w pewnym momencie odmówił współpracy a w logach pojawiła się informacja o treści: [Mon Nov 10 16:16:07 2008] [crit] [client 83.14.X.X] (24)Too many open files: /.htaccess pcfg_openfile: unable to check htaccess file, ensure it is readable Więc wygląda na problem limitów otwartych procesów, to samo podpowiada google. Zwiększyłem limit z 1024 plików do 32768, wpisałem w /etc/security/limits.conf : * soft nofile 32768 * hard nofile 32768 Zrestartowałem maszynę, każdy użytkownik w systemie ma teraz zwiększoną ilość otwartych plików do 32768. Niestety apache znowu po niecałej godzinie zaczyna się wykrzaczać zapisując te same informacje w logu i przestając serwować pliki. Co ciekawe wygląda na to, że apache ignoruje zwiększone przeze mnie limity: ~ # pidof httpd 27362 27361 27355 27092 27091 27085 26688 26687 26682 26621 26620 26619 26618 26617 26616 26615 26613 26608 ~ # ls /proc/27362/fd/ Display all 1024 possibilities? (y or n) ~ # ls /proc/26608/fd/ Display all 1024 possibilities? (y or n) Apache zaraz po starcie otwiera 1024 deskryptory plików. Ktoś spotkał się z tym problemem?
-
(24)Too many open files: /.htaccess pcfg_open file: unable to check htaccess file, ensure it is reada
exa odpisał exa na temat w Serwery WWW
2 cytaty z tego tematu: -
(24)Too many open files: /.htaccess pcfg_open file: unable to check htaccess file, ensure it is reada
exa odpisał exa na temat w Serwery WWW
OVH Release 2 (distro na bazie Gentoo). 2.6.24.5-grsec-xxxx-grs-ipv4-32 #3 SMP Wed May 28 09:09:25 CEST 2008 i686 Intel(R) Celeron(R) CPU 2.66GHz GenuineIntel GNU/Linux -
(24)Too many open files: /.htaccess pcfg_open file: unable to check htaccess file, ensure it is reada
exa odpisał exa na temat w Serwery WWW
Wyedytowałem /usr/include/bits/typesizes.h, przekompilowałem apache i zero zmian. Wyeksportowałem CFLASG (na przykładzie widać, że jest uwzględnione) ponownie zrekompilowałem i również nic to nie pomogło. apache # grep -iR ulimit * bin/apachectl:ULIMIT_MAX_FILES="ulimit -S -n `ulimit -H -n`" bin/apachectl:if [ "x$ULIMIT_MAX_FILES" != "x" ]; then bin/apachectl: $ULIMIT_MAX_FILES build/config_vars.mk:APACHECTL_ULIMIT = ulimit -S -n `ulimit -H -n` apache # ulimit -n -H 96768 apache # ulimit -n -S 96768 Nawet apache w Relese 2 ustawia ulimit przy starcie. Teraz sprawdzenie liczy otwartych deskryptorów wygląda tak: apache # ls /proc/3851/fd/ Display all 1025 possibilities? (y or n) W tym miejscu się zdziwiłem. Za każdym razem po restarcie jest 1025 uruchomionych. Serwer startuje po uruchomieniu z konsoli (przed rekompilacją też startował i działał). Klient używa WebMina i tu pojawia się problem. Po dodaniu każdej domeny/subdomeny należy zrestartować apache klikając na specjalny link. Po czym WebMin wyświetla: Serwer Apache nie może być uruchomiony: Apache nie wstaje a w logu pojawia się: [Wed Nov 12 16:08:49 2008] [error] (24)Too many open files: Init: Can't open server certificate file /usr/local/apache/conf/ssl.crt/server.crt Mam już dość. -
(24)Too many open files: /.htaccess pcfg_open file: unable to check htaccess file, ensure it is reada
exa odpisał exa na temat w Serwery WWW
Dzięki za naprowadzenie, szkoda, że ten wątek jest na pierwszym miejscu w google pod hasłem "apache DFD_SETSIZE". Teraz jestem odcięty od internetu w domu; poprzez szybkie sprawdzenie na google parametr DFD_SETSIZE dotyczy tylko systemów FreeBSD i pochodnych. Ten stary dokument http://www-01.ibm.com/software/webservers/...escriptors.html mówi, że pod Linuksem w zasadzie obowiązuje tylko ulimit, chyba, że na kernel nałożony jest limit 1024 (tylko nie wiem czy to ogranicza ulimit, chyba nie?). Jak tylko moje połączenie z internetem wróci to to sprawdzę. Jeżeli ktoś miałby w międzyczasie inne pomysły będę wdzięczny za pomoc. Zainstalowany jest suexec, chciałem mieć 100% pewność. -
(24)Too many open files: /.htaccess pcfg_open file: unable to check htaccess file, ensure it is reada
exa odpisał exa na temat w Serwery WWW
Też to wygooglowałem, ale klient ma czystą instalację PHP. System to gentoo OVH release 2 bez żadnych modyfikacji. -
Gdzie jest taka informacje? Z tego co pamiętam (a ledwo coś kojarzę) limit był chyba 10. Co do limitu transferu, to chyba panel coś im źle wyświetla, bo "Pojemność: 0 KB" (w "Transfer miesięczny") mam nawet przy Start 1M
-
[edit] Nie mogę się doszukać w strony z takim wynikiem: <!--Total queries=230; total cached=225-->
-
w vpsrepublic.com limitują trafic wychodzący o czym nie piszą na stronie. Jarek na tym za $5.5 ma: Uplink Traffic(KB/s): 512 [edit] Zapomniałem, że nawet 1Mb ci wystarczy.
-
Tylko, że jak jest założony index i unique to miej na uwadze, żeby zdjąć ten "słabszy" (czyli index), bo inaczej możesz spowolnić bazę.
-
Tego już sobie poszukaj na google, nawet nie wiemy jakiego serwera używasz. Zamiany w DNS będą widoczne po około 24 godzinach.
-
Nie wiedziałem, nie mam domen w az. Czyli @northwest możesz a az.pl dodać ten wpis "A" do strefy DNS . Tak, będzie się pokazywała domena. Teraz, żeby wyświetlić coś pod tą domeną musisz skonfigurować serwer WWW do obsługi tej domeny.
-
To mimo wszystko oficjalnie krzak. Pomimo tego, że chyba nikt się na nich nie skarżył, mają na karku dopiero 2 miesiące działalności (z tego co się orientuję) i brak jakichkolwiek danych firmy.
-
http://www.cheapvps.co.uk/specials, mają promocję w cenie VPSa z 128 MB RAM.
-
Zarejestruj się na freedns.sgh.waw.pl . Utwórz strefę podstawową o nazwie swojej domeny. Dodaj rekord "A" wpisują w pole "Nazwa" swoją domenę (z koniecznie kropką na końcu) a w IP wiesz już co wpisać. Następnie zaloguj się w az.pl i ustaw DNS1: fns1.sgh.waw.pl, DNS2: fns2.sgh.waw.pl . I tyle. Zmiana delegacji domeny może trwać do 24 godzin.
-
Błąd czy ostrzeżenie? Bo to certyfikat self-signed i jest poprawnie wystawiony dla domeny, więc po akceptacji na stałe żadne ostrzeżenia nie powinny wyskakiwać (bez dodawania wyjątków do przeglądarki). Przynajmniej pod Firefox 2.x