-
Postów
867 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
72
Typ zawartości
Profile
Forum
Wydarzenia
Treść opublikowana przez Mion
-
VS A Ty polecasz OVH .... zwłaszcza OVH nie świadczy administracji wcale, a na kontakt / odpowiedz z BOK czeka się często długimi dniami ...
-
Możesz to zautomatyzować po przez stosowny skrypt C++ / Python / PHP, który na serwerze bacupowym sprawdzi nowe pliki w podany wyżej sposób i w razie wykrycia błędu wyśle e-mail . Co więcej monitorując zawartość katalogu backupow możesz też wyslac powiadomienie jesli oczekiwany backup się nie pojawi. Monitorowanie jako proces w pętli lub program/skrytp odpalany z crona...
-
Hmm ... może spróbuj z dodawaniem pliku kontrolnego do pakowanego archiwum. Następnie w ramach testu wypakowanie archiwum > sprawdzenie czy jest plik kontrolny > skasowanie wypakowanego folderu i jeśli był plik kontrolny o zdefiniowanej zawartości uznanie, ze archiwum jest "poprawne".
-
IMHO własne rozwiązanie implikuje wiele problemów w kwestii: - spamu; - archiwizacji danych; oraz samej administracji takim serwerem jak by miał stanowić oddzielną usługę.
-
Zobacz https://www.nazwa.pl/poczta/
-
Komu zlecić pozycjonowanie sklepu internetowego
Mion odpowiedział(a) na blfr temat w Promocja, marketing i SEO
jeszcze fajniej, ze potrzeba całość cytować -
Link nie jest "daną osobową", a RODO tyczy przetwarzania danych osobowych. Co innego jak do przetwarzanych przez Ciebie danych osobowych mają dostęp osoby/firmy trzecie.
-
Nie wiem czy w tym wypadku by zadziałała kombinacja KeepAlive z MaxKeepAliveRequests http://httpd.apache.org/docs/2.2/mod/core.html#maxkeepaliverequests Wtedy jak by serwer wywalił błąd pewnie 500 trzeba by obsłużyć domyślna stronę błędu Apche informacyjną o przekroczeniu puli klientów na serwerze. IMHO zliczanie userów online wydaje mi się rozwiązaniem tego typu problemu. Gdyż ci co już weszli do puli IP do 100 są obsługiwani, a następni dopiero mogą wejść jak ktoś z tej puli wypadnie po przez przekroczenie czasu bezczynności (n) sekund.
- 5 odpowiedzi
-
- loadbalancer
- apache2
-
(i 1 więcej)
Oznaczone tagami:
-
Ale HProxy nie ma informacji o stanie docelowego serwera innych niż co określony czas odpytanie ( próbkowanie)o statu HTTP 200. W wypadku braku odpowiedzi HProxy lub inny loadbalancer taki serwer wykluczy. Zatem takie rozwiązanie by zablokowało ruch, wymagało/dopuszczało by do wywalenie serwera aplikacji po przez przeciążenie i HTTP != 200 . Chyba, że HPorxy lub inny load balancer ma mechanizm zliczanie requestów i w wypadku osiągnięcia (n) w ciągu określonego czau kolejne żądania kieruje na następny w kolejności serwer
- 5 odpowiedzi
-
- loadbalancer
- apache2
-
(i 1 więcej)
Oznaczone tagami:
-
Klasyczny request HTTP otwiera połączenie z serwerem i zamyka po udzieleniu odpowiedzi do klienta, więc tym świetle patrząc nie ma czegoś takiego jak "aktywni userzy online" . Podobnie jest z połączenie do bazy danych w skryptach PHP przeważnie jest zamykane "na koniec skryptu" . Ilość osób online przeważnie określa się zapisując do bazy czas ostatniego wejścia/przeładowania strony z danego IP i zliczając ilość rekordów o określonym czasie życia. Zamiast zapisu do bazy bazy danych można w tym celu wykorzystać np REDIS'a jako bazę pamięciowa dodając do niej IP z określonym czasie życia np 1 minuta i podobnie jak w wypadku bazy danych zliczając ilość rekordów. Składając to w całość w skrypcie PHP (lub innym w zależności od wykorzystanego języka) w głównym kontrolerze lub middlewarze sprawdzane było by ile jest userów online i jeśli ilość jest większa niż te (n) 100, blokowane sa dalsze akcje skryptu komunikatem np: "Wykorzystano liczbę dostępnych zasobów" ... W wypadku zastosowania redisa zliczanie userów online było by operacja relatywnie tanią. IMHO Load balancera rozkładają ruch na (n) serwerów, ale nie maja informacji o tym ilu zostaje na nich "online".
- 5 odpowiedzi
-
- 1
-
- loadbalancer
- apache2
-
(i 1 więcej)
Oznaczone tagami:
-
No i w miarę możliwości oferowanych przez hosting ustaw najnowsze wersje PHP o ile wtyczki Twojego WP na to pozwalają. Dodatkowo proponuję zobacz co Google ma do powiedzenia na temat Twojej strony : https://developers.google.com/speed/pagespeed/insights/?hl=pl
-
Dla WP IMHO jedynym sensownym rozwiązaniem jest wszechstronne cache, bo wykonywanie kodu PHP skryptów składowych WP jest bardzooo długotrwałe, a im więcej wtyczkę tym gorzej i nic z tym nie zrobisz. Do WP są też wtyczki do CDN'ow.
-
No właśnie dlatego po co stworzono CDN by serwować pliki statyczne nie z serwera aplikacji jak najbliżej klienta. Jak już pisałem i możesz sam sprawdzić patrząc w źródła WP lądują cała mesęplików CSS / JS do tego jeszcze liczne fonty., które muszą być przez serwer odczytane i wysłane itd... Pliki z CDN w Warszawie do przeglądarki klienta w Polsce powinien przejść szybciej niż ten sam plik z serwera we Francji, a to już daje całkiem wymierne korzystności. Nie wiem co to jest statystyczny błąd dodatkowego obciążenia serwera.
-
Po to, by uzyskać większą relatywną szybkość wczytywania strony jako całość, bo chyba o to w tym wszystkim chodzi, a nie tylko polepszyć czas wysłania pierwszych bajtów z serwera od przetworzenia kodu PHP liczony w milisekundach. Przyśpieszenie samego WP z masa wtyczek jest IMHO tym samym co trenowanie konia pociągowego do wyścigów. To według Ciebie serweer wysyłający mase plików statycznych wykonujących do tego operacje dyskowe nie jest przez to dodatkowo obciążany ? Zwróć uwagę, że wodpress przeważnie ładuje masę plików CSS/ JS zwłaszcza taki z wtyczkami.
-
Mylisz się. Hosting serwujący plik - wynikowy kod HTML strony to nie wszystko. Zainteresuj się CDN'ami pod statyczny kontent strony oraz dodatkowo Dns Anycast. Dzięki CDN relatywnie odciążysz żądania HTTP do serwera głównego (PHP/Node.js etc...)
-
Przeszukiwanie folderu w poszukiwaniu plików php
Mion odpowiedział(a) na arve_lek temat w Bezpieczeństwo
Taka koncepcja przynajmniej teoretyczna. Jeśli klient wykonuje żądania do nieistniejących zasobów serwer loguje taki request jako 404 + IP klienta. Wiec dodatkowe oprogramowanie, które co (n) czasu odczytuje (n) linii z loga i jak trafi się (n) 404 z danego IP w określonym czasie takie IP automatycznie trafia na listę banów i firewall nie dopuszcza kolejnych żądań z tego IP. Najlepszy był by firewall przed serwerem do którego za pomocą API szło by IP na bieżąco dodawać. -
Jak miło
-
I jeszcze jest AWS Free Tier https://aws.amazon.com/free/ całkowicie za darmo
-
A może zadaj konkretne pytanie.
-
Nie korzystaliśmy z tych najtańszych VPS'ow z ich oferty... Jednak nie jest to temat o Aruba Cloud , więc nie będę rozwijał tutaj wątku.
-
Szkoda tylko, że nie posiadają BOK'u, który nie ma klientów w (|) i reaguje na zgłoszenie awarii w czasie krótszym niż 5 dni!
-
Hmm nie jestem przekonany, iż to on powinien cokolwiek dalej robić po tym jak zrezygnował z domeny. Kupując śwaidomie "używana domenę" Kupiłeś ją z całym bagażem. Co najwyżej nowy właściciel może zwrócić się do tych portali w sprawie usunięcia wpisów.
-
Ale z postu wynika, że To chyba była pierwotnie osobna firma. Ale tak, czy inaczej wypadało by żeby zapytali / poinformowali o tym, że " dnia na dzień przerzuca mój serwer między różnymi markami (bez jakiejkolwiek informacji),"
-
Ciekawe czy takie zaoczne przeniesienie jest zgodne z RODO ... Bo jeśli na serwerze przetwarzane były/są dane osobowe np telefon, to dostęp do danych uzyskał inny podmiot niż ten, z którym zawarto pierwotnie umowę.
-
W tej cenie są również gratisy jak: awarie, niedostępność usługi, BOK ... i inne tego typu "atrakcje"