Skocz do zawartości

Mion

Użytkownicy
  • Postów

    851
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    70

Odpowiedzi opublikowane przez Mion

  1. Ale nie masz serwerów nazw of1.ovh.net / of2.ovh.net :)

    Możesz co najwyżej utworzyć wlasne w wykupionej w OVH domenie np:
    ns1.mydomena.ovh > i tutaj konfiguracja  ns1 [ A] > Twoje IP
    ns2.mydomena.ovh > i tutaj konfiguracja  ns2 [ A] > Twoje IP

     

    To jest opisane w poradnikach. Nie działaj na oslep ;)

     

    ------

    A DNS secondary nie zadziała jeśli nie zrobisz tego co pisałem, czyli nie nastąpi transfer strefy DNS .

     

     

    How to Set up Vestacp Nameservers DNS & Free SSL Certificate
    https://www.youtube.com/watch?v=trMhdlQlLyI

     

  2. 4 minuty temu, szogun napisał:

    dns secondary

     

    sdns2.ovh.net

    Ale ten DNS sam z siebie nie działa :)  w panelu OVH musisz przypisać domenę oraz zweryfikować po przez rekordy w strefie DNS w WestaCP >  A + TXT.  Musisz mieć skonfigurowany BIND 'a by mógł  nastąpić transfer strefy.  Trochę to skomplikowane więc szczegółów nie opisze.  Poszukaj w necie poradników od westacp będą w nich jak utworzyć serwery dns.

  3. Hmm przecież cloudflare działa jak proxy i to klient  <--> CF idzie po HTTPS, a miedzy serwerem domeny  a CF idzie po http. Trzeba ustawić DNS domeny na DNS od CF. Przynajmniej tak robiłem i HTTPS działał bez jakiś dodatkowych konfiguracji.

  4. 3 godziny temu, Knight napisał:

    Moja pomoc jest w 100% darmowa. [..] Na tą chwilę jestem w stanie wygenerować atak o mocy 500/600gbps

    Hmmm dziwny post to tak jak by włamywacz testował zabezpieczenie na ochotnikach... Nie twierdze, że Masz jakieś ukryte złe zamiany, bo tego nie wiem .

    Poza tym zawsze znajdzie się ktoś z "większym" łomem...

  5. 14 godzin temu, Zgred napisał:

    Administracja: po stronie dostawcy

    VS

    10 godzin temu, Rafiki napisał:

    W wszystkich wypadkach musisz administrować sam lub wynająć administratora  - chociażby jednorazowo. 

    A Ty polecasz OVH  .... zwłaszcza OVH nie świadczy administracji wcale, a na kontakt / odpowiedz z BOK czeka się często długimi dniami ...

  6. Możesz to zautomatyzować po przez  stosowny skrypt C++ / Python / PHP, który na serwerze bacupowym sprawdzi nowe pliki w podany wyżej sposób i w razie wykrycia błędu wyśle e-mail . Co więcej monitorując zawartość katalogu backupow możesz też wyslac powiadomienie jesli oczekiwany backup się nie pojawi.

     

    Monitorowanie jako proces w pętli lub program/skrytp odpalany z crona...

  7. Nie wiem czy w tym wypadku by zadziałała kombinacja KeepAlive  z  MaxKeepAliveRequests

    http://httpd.apache.org/docs/2.2/mod/core.html#maxkeepaliverequests

    Wtedy jak by serwer wywalił błąd pewnie 500 trzeba by obsłużyć domyślna stronę błędu Apche informacyjną o przekroczeniu puli klientów na serwerze.

     

    IMHO zliczanie userów online wydaje mi się rozwiązaniem tego typu problemu. Gdyż ci co już weszli do puli IP do 100 są obsługiwani, a następni dopiero mogą wejść jak ktoś z tej puli wypadnie po przez przekroczenie czasu bezczynności  (n) sekund.

     

     

  8. 39 minut temu, mariaczi napisał:

    "w przypadku błędu" (czyt. ilość dozwolonych połączeń zostanie osiągnięta).

    Ale HProxy nie ma informacji o stanie docelowego serwera innych niż co określony czas odpytanie ( próbkowanie)o statu HTTP 200.  W wypadku braku odpowiedzi HProxy lub inny loadbalancer taki serwer wykluczy. Zatem takie rozwiązanie by zablokowało ruch,  wymagało/dopuszczało by do wywalenie serwera aplikacji po przez przeciążenie i HTTP != 200 . 

    Chyba, że HPorxy lub inny load balancer ma mechanizm zliczanie requestów  i w wypadku osiągnięcia (n) w ciągu określonego czau kolejne żądania kieruje na następny w kolejności serwer  :)

  9. Klasyczny request HTTP otwiera połączenie z serwerem  i zamyka po udzieleniu odpowiedzi do klienta,  więc tym świetle patrząc  nie ma czegoś takiego jak "aktywni userzy online" .
    Podobnie jest z połączenie do bazy danych w skryptach PHP przeważnie jest zamykane "na koniec skryptu" .

     

    Ilość osób online przeważnie określa się zapisując do bazy czas ostatniego wejścia/przeładowania strony z danego IP i zliczając ilość rekordów o określonym czasie życia. Zamiast zapisu do bazy bazy danych można w tym celu wykorzystać np REDIS'a jako bazę pamięciowa dodając do niej IP z określonym czasie życia np 1 minuta i podobnie jak w wypadku bazy danych zliczając ilość rekordów. 

     

    Składając to w całość w skrypcie PHP (lub innym w zależności od wykorzystanego języka) w głównym kontrolerze lub middlewarze sprawdzane było by  ile jest userów online i jeśli ilość jest większa niż te (n) 100, blokowane sa dalsze akcje skryptu komunikatem np: "Wykorzystano liczbę dostępnych zasobów" ... W wypadku zastosowania redisa zliczanie userów online było by operacja relatywnie tanią.

     

     IMHO Load balancera rozkładają ruch na (n) serwerów, ale nie maja informacji o tym ilu zostaje na nich "online".

     

     

    • Lubię 1
  10. 1 minutę temu, theqkash napisał:

    Jeśli masz aż takie rozbieżności w TTFB sprawdź jakie TTFB będziesz miał dla strony statycznej umieszczonej na tych serwerach, a potem dla jakiegoś prostego skryptu napisanego w php, pozwoli Ci to już pewne wnioski wyciągnąć

    Dla WP IMHO jedynym sensownym rozwiązaniem jest wszechstronne cache, bo wykonywanie kodu PHP skryptów składowych WP jest bardzooo długotrwałe, a im więcej wtyczkę tym gorzej i nic z tym nie zrobisz. Do WP są też wtyczki do CDN'ow.

    • Lubię 1
  11. 4 minuty temu, theqkash napisał:

    Dlaczego sugerujesz, że zastosowanie CDNa do każdej strony poprawi cokolwiek i jest warte rozważania? Moim zdaniem CDNa warto wprowadzić tylko wtedy jeśli serwujesz mnóstwo elementów statycznych i to do szerokiego grona odbiorców, w przeciwnym razie jest to zbędna inwestycja. 

    No właśnie dlatego po co stworzono CDN by serwować pliki statyczne nie z serwera aplikacji jak najbliżej klienta.  Jak już pisałem i możesz sam sprawdzić patrząc w źródła WP lądują cała mesęplików CSS / JS do tego jeszcze liczne fonty., które muszą być przez serwer odczytane i wysłane itd...  Pliki z CDN w Warszawie do przeglądarki klienta w Polsce powinien przejść szybciej niż ten sam plik z serwera we Francji, a to już daje całkiem wymierne korzystności.

     

    9 minut temu, theqkash napisał:

    dla przeciętnej strony firmowej jest w granicach błedu statystycznego

    Nie wiem co to jest statystyczny błąd dodatkowego obciążenia serwera.

     

     

    • Lubię 1
  12. 10 minut temu, theqkash napisał:

    Po co się interesować CDNami na tym etapie?

    Po to, by uzyskać większą relatywną szybkość wczytywania strony jako całość, bo chyba o to w tym wszystkim chodzi, a nie tylko polepszyć czas wysłania pierwszych bajtów z serwera od przetworzenia kodu PHP liczony w milisekundach.  Przyśpieszenie samego WP z masa wtyczek jest IMHO  tym samym co trenowanie konia pociągowego do wyścigów.

    16 minut temu, theqkash napisał:

    (lub przez całkowite obciążenie serwera), a nie przez obsługiwanie plików statycznych. 

    To według Ciebie serweer wysyłający mase plików statycznych wykonujących do tego operacje dyskowe nie jest przez to dodatkowo obciążany ? :D

    Zwróć uwagę, że wodpress przeważnie ładuje masę plików CSS/ JS zwłaszcza taki  z wtyczkami.

    • Lubię 1
  13. Godzinę temu, Diego164 napisał:

    Jedyne co mi jest potrzebne to naprawdę szybki dobrze zoptymalizowany hosting.

    Mylisz się. Hosting serwujący plik - wynikowy kod HTML strony to nie wszystko.
    Zainteresuj się CDN'ami pod statyczny kontent strony oraz dodatkowo Dns Anycast.
    Dzięki CDN relatywnie odciążysz żądania HTTP do serwera głównego (PHP/Node.js etc...)

    • Lubię 1
  14. 1 godzinę temu, arve_lek napisał:

    Jakieś sugestie czy da się zablokować te ataki ?  ... Ręcznie IP muszę dodawać ?

    Taka koncepcja przynajmniej teoretyczna. Jeśli klient wykonuje żądania do nieistniejących zasobów serwer loguje taki request jako 404 + IP klienta.
    Wiec dodatkowe oprogramowanie, które co (n) czasu odczytuje (n) linii z loga i jak trafi się (n) 404 z danego IP w określonym czasie takie IP automatycznie trafia na listę banów i firewall  nie dopuszcza kolejnych żądań z tego IP.  Najlepszy był by firewall  przed serwerem do którego za pomocą API szło by IP na bieżąco dodawać.

    • Lubię 1
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Korzystając z forum, wyrażasz zgodę na: Warunki użytkowania, Regulamin, Polityka prywatności.