Skocz do zawartości

Bartko

Użytkownicy
  • Zawartość

    22
  • Rejestracja

  • Ostatnio

Posty napisane przez Bartko


  1. Mam problem z aktualizacją systemu Centos 7 za pomocą komendy yum update. Problem stanowi, jak mi się wydaje, obecność binda w różnych wersjach w repozytorium Centosa i repozytorium Epel.

    Nie umiem rozwiązać tego problemu. Sugerowane --skip-broken pomija binda i aktualizuje resztę. Stosowałem też komendę yum clean all. Proszę o pomoc, wskazówki. PS: Googlowałem. Szukałem "bind" w wyszukiwarce forum.

    yum update
    Wczytane wtyczki: fastestmirror
    base                                                                                                                                                                  | 3.6 kB  00:00:00
    epel/x86_64/metalink                                                                                                                                                  |  27 kB  00:00:00
    epel                                                                                                                                                                  | 4.3 kB  00:00:00
    extras                                                                                                                                                                | 3.4 kB  00:00:00
    updates                                                                                                                                                               | 3.4 kB  00:00:00
    (1/7): base/7/x86_64/group_gz                                                                                                                                         | 155 kB  00:00:00
    (2/7): epel/x86_64/group_gz                                                                                                                                           | 169 kB  00:00:00
    (3/7): base/7/x86_64/primary_db                                                                                                                                       | 5.3 MB  00:00:00
    (4/7): epel/x86_64/updateinfo                                                                                                                                         | 479 kB  00:00:00
    (5/7): extras/7/x86_64/primary_db                                                                                                                                     |  90 kB  00:00:00
    (6/7): updates/7/x86_64/primary_db                                                                                                                                    | 2.3 MB  00:00:00
    (7/7): epel/x86_64/primary_db                                                                                                                                         | 3.8 MB  00:00:00
    Determining fastest mirrors
     * base: mirror1.babylon.network
     * epel: mirror1.babylon.network
     * extras: mirror1.babylon.network
     * updates: mirror1.babylon.network
    Rozwiązywanie zależności
    --> Wykonywanie sprawdzania transakcji
    ---> Pakiet bind.x86_64 32:9.9.4-18.el7_1.5 zostanie zaktualizowany
    --> Przetwarzanie zależności: bind = 32:9.9.4-18.el7_1.5 dla pakietu: 32:bind-chroot-9.9.4-18.el7_1.5.x86_64
    ---> Pakiet bind.x86_64 32:9.9.4-29.el7_2.2 zostanie zaktualizowany
    ---> Pakiet bind-libs.x86_64 32:9.9.4-18.el7_1.5 zostanie zaktualizowany
    ---> Pakiet bind-libs.x86_64 32:9.9.4-29.el7_2.2 zostanie zaktualizowany
    ---> Pakiet bind-libs-lite.x86_64 32:9.9.4-18.el7_1.5 zostanie zaktualizowany
    ---> Pakiet bind-libs-lite.x86_64 32:9.9.4-29.el7_2.2 zostanie zaktualizowany
    ---> Pakiet bind-license.noarch 32:9.9.4-18.el7_1.5 zostanie zaktualizowany
    ---> Pakiet bind-license.noarch 32:9.9.4-29.el7_2.2 zostanie zaktualizowany
    ---> Pakiet bind-utils.x86_64 32:9.9.4-18.el7_1.5 zostanie zaktualizowany
    ---> Pakiet bind-utils.x86_64 32:9.9.4-29.el7_2.2 zostanie zaktualizowany
    ---> Pakiet dhclient.x86_64 12:4.2.5-36.el7.centos zostanie zaktualizowany
    ---> Pakiet dhclient.x86_64 12:4.2.5-42.el7.centos zostanie zaktualizowany
    ---> Pakiet dhcp-common.x86_64 12:4.2.5-36.el7.centos zostanie zaktualizowany
    ---> Pakiet dhcp-common.x86_64 12:4.2.5-42.el7.centos zostanie zaktualizowany
    ---> Pakiet dhcp-libs.x86_64 12:4.2.5-36.el7.centos zostanie zaktualizowany
    ---> Pakiet dhcp-libs.x86_64 12:4.2.5-42.el7.centos zostanie zaktualizowany
    --> Ukończono rozwiązywanie zależności
    Błąd: Pakiet: 32:bind-chroot-9.9.4-18.el7_1.5.x86_64 (@updates)
              Wymaga: bind = 32:9.9.4-18.el7_1.5
              Usuwanie: 32:bind-9.9.4-18.el7_1.5.x86_64 (@updates)
                  bind = 32:9.9.4-18.el7_1.5
              Zaktualizowano przez: 32:bind-9.9.4-29.el7_2.2.x86_64 (updates)
                  bind = 32:9.9.4-29.el7_2.2
              Dostępne: 32:bind-9.9.4-29.el7.x86_64 (base)
                  bind = 32:9.9.4-29.el7
              Dostępne: 32:bind-9.9.4-29.el7_2.1.x86_64 (updates)
                  bind = 32:9.9.4-29.el7_2.1
     Można spróbować użyć --skip-broken, aby obejść problem
     Można spróbować wykonać polecenie: rpm -Va --nofiles --nodigest
    

  2. Przykro mi, ale niestety nie mogę podać o jaką domenę chodzi. W każdym razie są to domyślne ustawienia cloudflare'a. Kwejk.pl też ma takie właśnie ustawienia, więc jego przykład może posłużyć nam zamiast mojego. Pytałem bardziej teoretycznie czy może coś Wam wiadomo jak to powinno działać.


  3. Mam taki problem, że jedna subdomena przy długim okresie nie włączania przeglądarki pokazuje zły adres IP.

     

    Sytuacja w DSNach jest następująca:

     

    domena.pl IN A 100.100.100.100
    static.domena.pl IN A 200.200.200.200 - TTL 300 sekund

    Czasami żądania ze static.domena.pl szły na adres IP 100.100.100.100. Szczególnie przy pierwszym odpaleniu przeglądarki. Czyżby jak komputerowi wygasł czas 300 sekund to na początku wskazuje na złe IP, a dopiero przy którejś z rzędu odsłonie pobiera prawidłowe IP z DNSów?


  4. Problem był na poziomie odświeżenia struktury baz danych odpowiedzialnych za komunikację z serwerami DNS. W pierwszej kolejności zostały odświeżone usługi płatne wymagające dużej dostępności. Nie była to usterka lecz krok do wprowadzenia dodatkowych usług z nowym rokiem. Informacja przekazana dla partnerów Cloudflare.

     

    Muszę się nie zgodzić. Ja otrzymałem zupełnie inne wyajaśnienia:

     

    We did see a brief networking issue that impacted some of our EU-regional customers. We are investigating the exact cause with networking providers in the region. The issue should be resolved at this time though.

     

    Teraz tylko dowiedzieć się czy rozmawiamy o tym samym i czy przypadkiem podczas tego odświeżania przypadkiem u nas czegoś nie zepsuli. Awaria wcale nie wyglądała na zaplanowaną, bo strona cloudflare.com też padła psując im renomę. Zresztą dodatkowo przyznają się do swojej awarii, więc na szczęście nie ma tu zamiatania pod dywan. Padło, przyznają się i starają dojść się czemu tak się dzieje.

     

    Tutaj info: http://twitter.com/CloudFlareSys


  5. Nie działa mi dość duża strona strona i wygląda na to, że problem powoduje CloudFlare.

     

    Strona obsługująca chmurę CloudFlare.com równiez nie działa i nie mogę się zalogować, żeby wyłączyć obsługę strony przez ich chmurę. Zastanawiam się czy szybko nie uciekać z DNSami gdzieś indziej.

     

    Czy Wam też padły teraz stronki używajace Cloudflare?

     

    Załączam logi komendy ping i tracert.


  6. Może komuś coś powiedzą logi z munina. Widać na nich, że przy włączonym KeepAlive liczba procesów osiąga 1000 (mimo, że deklarowałem 1500 akurat dzisiaj). Pamięć też się kończy. Tak jakby chciało zająć 22 GB, a serwer ma tylko 12GB wbrew temu co pisałem, ze ma 24GB.

     

    Apache procesy

    apacheprocessesday.png

     

    Pamięć

    memoryday.png

     

    Sprawdzane na PHP 5.4.0 i dzisiaj na PHP 5.4.1. Problem wciąż występuje.


  7. Używam Apache'a z MPM prefork na stronie z materiałami multimedialnymi. Dużo obrazków oraz większe pliku multimedialne po kilkanaście MB. Używałem przez kilkanaście ostatnich miesięcy KeepAlive On oraz konfiguracji:

     

    KeepAlive On

    <IfModule mpm_prefork_module>

    StartServers 25

    MinSpareServers 10

    MaxSpareServers 35

    ServerLimit 3520

    MaxClients 3520

    MaxRequestsPerChild 150

    </IfModule>

     

    Pliki graficzne i multimedialne obsługiwał Lighttpd, ale poprzez Apache Proxy, bo mam tylko jedno IP dostępne.

    Obecnie zmieniłem system na Debian 6.0 i przy pierwszej konfiguracji dojeżdza do 1003 procesów i zaczyna się mulić strona. Chyba brakuje dostępnej pamięci ram. Musiałem zmienić na:

     

    KeepAlive Off

    <IfModule mpm_prefork_module>

    StartServers 25

    MinSpareServers 10

    MaxSpareServers 35

    ServerLimit 1000

    MaxClients 1000

    MaxRequestsPerChild 150

    </IfModule>

     

    Głównie chyba wyłączenie KeepAlive pomoga, bo spada liczba procesów do 300.

     

    1)

    Czy Debian 6.0 inaczej obsługuje procesy apache'a niż Debian 5.0. Właśnie po zmianie systemu zaobserwowałem zmianę.

     

    2)

    Czy jak używam Lighttpd poprzez proxy Apache (przekierowanie na inny port) dla większych plików i obrazków to czy wtedy też proces Apache jest trzymany dzięki KeepAlive aż do końca wczytywania się dużego pliku?

     

    3)

    Czy może jakoś można stuningować konfigurację, aby mimo włączonego KeepAlive ni było tyle procesów i zajętego całego ramu. Próbowałe z KeepAliveTimeout 2, ale bez zmian.

     

    4)

    Czy może lepiej całość (Apache + Lighttpd) zamienić na LiteSpeed?

     

    Edycja:

    Dodam jeszcze, że testowałem konfigurację z KeepAlice On na Debianie 6.0 i na dwóch serwerach i wszędzie jest 1002 procesów Apache'e po chwili od uruchomienia. Jednocześnie zajmuje się cała dostępna pamięć RAM (24GB) mimo, że wcześniej było jej dużo GB wolnego.


  8. Czy jest jakieś rozwiązanie Load Balancingu, które przekaże dane z jednego z dwóch serwerów bezpośrednio do użytkownika, a nie poprzez Load Balancer?

     

    Obecnie testowałem oprogramowanie pound i działa to w ten sposób:

     

    Żądanie użytkownika => Load balancer Pound => Wybrany serwer => Load Balancer Pound => Użytkownik

     

    W takim rozwiązaniu serwer Load Balancerer musi mieć zapewnione pełne pasmo (przepustowość karty sieciowej i łącza) jakie zużywają wszystkie serwery jednocześnie w danej chwili. Czy można to jakoś prosto zrobić na innej warstwie, żeby całość zachowywała się inaczej?


  9. Witajcie,

     

    Otóż mam dość spory problem z home.pl. Mam u nich kilka domen i wykorzystałem ich DNSy dns.home.pl, dns2.home.pl

    Następnie używajac ich panelu i dnsów przekierowałem ruch na IP XX.XX.XX.XX. W rekordach domeny jest wpis

    example.com IN A XX.XX.XX.XX - 1 godzina

    . Dnsy zaś mają ważność 24 godziny.

     

    Chce zmienić dnsy na te od CloudFlare jednak zobaczcie co się wtedy stanie. Ktoś odwiedzający example.com 6 godzin po zmianie dnsów zobaczy stronę home.pl, gdyż będzie miał w dnscache dns.home.pl, dns2.home.pl, ale wpis A już wygaśnie, a home.pl ustawia wtedy swój wpis IN A kierujący na ich serwery i wyświetlający ich reklamę.

     

    Że tak powiem: utknąłem i nie wiem jak stąd wyjść. Czy transfer domeny do innego operatora może rozwiązać ten problem? Jak sobie z tym poradzić, żeby nie narażać się na straty odwiedzających?

     

    Oto konfiguracja jaką wygenerował panel. Podobno po zmianie dnsów nie mogą utrzymać mojego Ip przez czas propagacji. Tak poinformował mnie ich pracownik. Proszę o pomoc.

     

    homepanel.jpg


  10. Czy możecie coś polecić lub zaoferować na serwer, który pełniłby rolę backupu dla serwera trzymanego w ovh.pl? Potrzebuję co najmniej 50GB miejsca na backup, który zaciągałbym rsynciem. Codziennie zmieniałaby się kopia bazy danych + dochodziłoby nie więcej niż 50MB plików. Rsync ściąga tylko zmienione dane, więc obciążenie byłoby niewielkie. Nie potrzeba zbyt wiele ramu czy procesora. Bardziej zależy mi na dysku.

    Oczywiście liczy się cena. Na ogół cena rośnie przy większym dysku, bo rośnie też wtedy ram i procek, a to nie jest wymagane.


  11. Witajcie,

     

    Po ostatniej reorganizacji swoich serwerów zbędny stał mi się jeden serwer bez limitu transferu.

     

    Parametry:

     

    RAM: 8GB

    Procesory: 2x Intel® Xeon® CPU E5405 @ 2.00GHz- są to procesory czterordzeniowe, po 2.0GHz

    Dysk SATA 1000GB

     

    Połączenie sieciowe: 1Gbps

    Rodzaj przepustowości: Premium

    Przepustowość OVH/OVH: 1Gbps

    Przepustowość OVH/Internet: 200 Mbps

    Przepustowość Internet/OVH: 1Gbps

    Transfer: bez limitu

     

    Za serwer płacę abonament 799zł netto.

     

    Czy ktoś byłby zainteresowany odkupieniem serwera lub dzierżawą kont wymagających dobrego łącza? W drugim przypadku oferuję panel DirectAdmin, konta ssh oraz instalację potrzebnego oprogramowania.


  12. Więc przebrnąłem przez większość rzeczy związanych z dwoma serwerami na jedną stronę. Maile puściłem na Google Apps, dnsami zarządzam z panelu home.pl. Na środowisku testowym wszystko wydaje się działać.

    Mam tylko pytanie o kontent statyczny. Z racji, że mam tylko jedno IP LOAD BALANCING puściłem sobie pliki przez proxy apache, które kieruje na port Lighttpd i pliki serwuje Lighttpd. Czy to wpłynie na wydajność?

     

    Zastanawiam się też nad synchronizacją plików dodawanych przez użytkowników (avatary, zdjęcia).

     

    1. Połączenie z dwoma serwerami FTP i wgrywanie w dwa miejsca równocześnie. Gdy jeden serwer padnie znika możliwość dodawania aż do czasu naprawienia awarii. Tak samo z usuwaniem avatarów i zdjęć. Rozwiązanie proste, ale z wadami.

     

    2. Jakiś NFS, Gluster czy coś podobnego. Nie znam zbytnio tematu, ale obiło mi się o uszy, że bardzo mocno obniża wydajność całej konfiguracji.

     

    3. Może coś innego?


  13. Witajcie,

     

    Obecnie posiadam stronę, która działa na jednym serwerze w OVH. Chciałbym aby działała na dwóch serwerach w celu zmniejszenia ryzyka awarii.

     

    Oto jak to widzę, proszę o poprawki jeśli coś źle przemyślałem.

     

    1. Instaluje na obu serwerach DirectAdmina.

    2. Dodaje wszędzie te same domeny, subdomeny

    3. Dnsy konfiguruje identycznie na tych serwerach. Używam własnej domeny (np. myowndns.pl)

    4. Maile przekierowuje na jeden z tych serwerów (zmiana wpisu A mail.domena.pl)

    5. Kod strony wgrywam na oba serwery ten sam (upierdliwe, ale przeżyję to)

    6. Baza danych działa na trzecim serwerze, kopie robione są na dwa pozostałe serwery

    7. Własne dnsy (np. myowndns.pl) ustawiam w home.pl na IP LOAD BALANCING (ns1.myowndns.pl, ns2.myowndns.pl => IP LOAD BALANCING)

     

    Czy coś pominąłem? Może wiecie jakie niespodzianki spotkam na tej drodze.


  14. Jeśli na jakiś temat nie masz pojęcia nie wypowiadaj się.

     

    Jeśli zaś chodzi o serwery baz danych na zewnętrznych maszynach, na pewno polepszy się po przejściu na 1Gbit. Aczkolwiek przeważnie przy takich operacjach stosuje się dwie karty sieciowe w serwerze webowym, jedna do wysyłania ruchu docelowego, drugą do komunikacji z serwerem baz danych.

     

    Teraz to takie oczywiste. Dzięki :) Co do Polski to pewnie, że z chęcią bym miał serwery w Polsce i rozmawiał z kompetentnymi ludźmi. Życzę powodzenia w walce o tanie łącza :)


  15. Witajcie,

     

    Kupiłem wczoraj serwer w ovh z dyskiem ssd i 8GB pamięci ram na serwer bazodanowy. Okazało się dzisiaj, że LOAD nawet nie drgnie, ale coś w pewnym momencie zaczęło przymulać. Okazało się, że wysyciłem łącze 100Mbitów serwera bazy przez wysyłanie danych do serwera (apache+php) aplikacji. Oba serwery stoją w OVH. Teraz się zastanawiam czy przejście na serwer z łączem i switchem 1Gbit rozwiąże mój problem. Czy macie jakieś doświadczenia lub sposoby do zmierzenia potrzebnego na bazę danych łącza?

     

    Bartko

×