Skocz do zawartości

gb1

Użytkownicy
  • Postów

    283
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    2

Odpowiedzi opublikowane przez gb1

  1. Cieszę się, że kończymy :-)

     

    Dla pozostałych kilka informacji ze specyfikacji technicznej dla obu chipsetów:

    LSI SAS 2308
       CPU: PowerPC 440 @ 800 MHz

       8 lini 6 / 3 Gbps SAS / SATA
       max. 600k operacji io

    LSI SAS 3008

       CPU: PowerPC 476 @ 1.2 GHz

       8 lini 12 / 6 / 3 Gbps SAS lub 6 / 3 Gbps SATA

       max. ponad 1 milion operacji io

     

    Jednak należy pamiętać że datasheet to jedno, a rzeczywistość często jest zupełnie inna, istotne są odpowiednie testy kiedy rozumiemy co i jak testujemy.

  2. @rafx czyli dla bazy danych oraz mail inne ograniczenia poza ilościowymi nie są istotne ?

    2 minuty temu, SomeGuy napisał:

    memory_limit może się przydać

     

    może ale jak widać zapewne dla @rafx nie jest to aż tak istotny element. nie ma jednej usługi pasującej dla wszystkich, istotne jest aby pasowała do zastosowania dla którego mamy ją wykorzystać. 

  3. @sebak starałeś się zapewniać, że pamięć nie jest zawodna, a jak widać jednak jest. Pisałeś o ponad 4 latach, teraz mamy 3 lata, czyli 25% różnicy, pisałeś o SM863, a jest 850Pro, zatem jak widać pamięć jest bardzo zawodna po dłuższym czasie. Możemy dalej ciągnąć temat wracając do technicznych realnych możliwości kontrolera i dysków, tylko po co jeśli wspólnie już ustaliliśmy że pamięć jest zawodna ? Nie lepiej zakończyć ?

  4. @sebak startość Panie, starość i pamięć jednak nie ta którą kiedyś była :-) sam nie pamiętałem ale sprawdziłem i 850Pro udostępniono w drugiej połowie 2014, a jako dyski desktopowe to ich wydajność w zakresie zapisu 4k to znacznie poniżej tego co wcześniej wymieniany SM863, zatem uzyskanie 2GBps przy operacji io o wielkości 4k byłoby ciekawym wynikiem.

     

    Myślę zatem, że warto zakończyć i nie wracać do tego co pamięć podpowiada :)

  5. @sebak jedynie potwierdzasz moje stwierdzenie, że wraz z czasem jednak pamięć zawodzi, ponieważ SM863 jeśli dobrze pamiętam Samsung udostępnił jakoś pod koniec 2015 roku, zatem nawet wersje "confidential" ponad cztery lata temu nie istniały. Natomiast wydajność dla "sustained" zapisu 4k w przypadku SM863 to  <30k per dysk zatem przy ośmiu dyskach to teoretycznie ok. 200k, czyli ponad dwukrotnie mniej aniżeli pamięć pozwala Tobie dziś przywołać tamte wyniki. Nie będę się zagłębiał w różnice i realne/teoretyczne limity pomiędzy LSI SAS 2008/2308/3008.

     

    Możliwe jednak, że z pamięci umknęły jakieś istotne elementy, na przykład że wyniki nie dotyczyły tylko sprzętu ale brały pod uwagę także warstwy powyżej włączając w to cachowanie. Pamięć jest zawodna i warto utrwalać wyniki testów do wykorzystania na przyszłość do porównań i optymalizacji, aby nie było zaskoczenia.

  6. @sebek opublikuj zatem wyniki chętnie się z nimi zapoznam, spojrzałem na wyniki w archiwum dla SM863 i z duża przyjemnością poznałbym jak na LSI SAS 2308 osiągnąłeś przy rozmiarze iops 4k wynik powyżej 2GB/s tak samo przy zapisie jak odczycie, a co istotne że nie różnił się on od tego osiąganego na LSI SAS 3008. Zawsze można się czegoś nowego ciekawego dowiedzieć.

  7. @rafx czy możesz wymienić inne istotne dla Ciebie funkcjonalności hostingy poza let's encrypt ? jak wiadomo hosting to pojęcie bardzo szerokie.

     

    W dniu 31/10/2017 o 17:17, kacperduras napisał:

    ten hosting jak dla mnie to złoto, lepszego współdzielonego nie ma

     

    @kacperduras mógłbyś podzielić się swoją opinią co tak bardzo Cię urzekło pod względem funkcjonalności technicznej lub innych aspektów że masz taką ocenę ? 

  8. @sebak Twoje testy zatem udowodniły że ograniczeniem w Twoim przypadku były dyski ssd lub podłączenie kontrolerów, a nie same kontrolery. Jednak jeśli wykorzystasz jakieś bardziej sensowne dyski ssd wyniki otrzymasz zupełnie inne.

     

    Z ciekawości aż spojrzałem do archiwum testów i poniżej porównanie sprzed dwóch lat, osiem dysków desktop ssd (sata), złącze pcie 2, pierwsza linia wyników dla LSI SAS 2308, druga dla 3008, firmware IT, na dyskach prosty softwarowy mirror (raid-10), testy z pominięciem wszelkich cache poza sprzętowym, powierzchnia testowa 50GB, read oraz write zawsze random. Dyski oczywiście po wcześniejszym pełnym "conditioningu".

     

    59f9f0d9d81df_ScreenShot2017-11-01at17_02_02.thumb.png.82eecc1f694e0b168ee7c4bff4b8b09c.png

    Dla porównania poniżej także wyniki dla ośmiu dysków ssd (sas) które są sensowne, testy takie same, kontroler LSI SAS 3008, jednak platforma testowa już znacznie nowsza, podłączenie kontrolera pcie 3 x8. Pomaga jednak zobrazować że kontroler, dyski oraz sposób ich podłączenia znacząco wpływa na wyniki.

     

    59f9f57289eec_ScreenShot2017-11-01at17_23_13.thumb.png.46bf0b5874890c5243c808ecc8d3f3b3.png 

  9. W dniu 29/10/2017 o 11:16, sebak napisał:

    Kontroler dyskowy coś na chipsecie LSI 2308 lub 2008.

     

    W przypadku dysków SSD (jeśli jakiekolwiek bardziej sensowne) to jednak sugerowałbym przynajmniej LSI SAS 3008 różnica znacząca w wydajności przy wykorzystaniu dysków ssd.

     

    W dniu 29/10/2017 o 11:37, mcbarlo napisał:

    Ilość linii PCI-E obsługiwanych przez procesor nie ma znaczenia. Ja mówie o aktywnych fizycznych slotach.

     

    W przypadku NAS czyli storage to IO jest podstawą, zatem ilość lini pcie jest bardzo znacząca, pozwala na bezpośrednią komunikację z procesorem. Oczywiście przekłada się to zwykle na ilośc slotów lub wbudowanych chipsetów już na płycie (kontroler dysków czy kart sieciowych 10GE). Choć występują także liczne przypadki gdzie ilość slotów jest znacznie większa aniżeli odpowiadająca im ilość lini pcie po czym się okazuje że po drodze mamy jakiś pcie switch lub slot x8 ale tylko z czterema aktywnymi liniami pcie. 

  10. W dniu 29/10/2017 o 12:47, theqkash napisał:

    Zastanawiam się nad wprowadzeniem jakiegoś dodatkowego zabezpieczenia na firmowym serwerze pocztowym.

     

    Wnioskuję że jeśli firmowy serwer poczty to jest większa możliwość kontroli użytkowników, ich wykorzystania usług oraz narzucenia rozwiązań bezpieczeństwa. Sugerowałbym rozważenie certyfikatów co pozwoli na odrzucanie połączeń jeszcze przed możliwością rozpoczęcia konwersacji z wykorzystaniem jednego z wymienionych protokołów. Innym rozwiązaniem  które należałoby także wziąć pod uwagę to vpn.  

  11. Wymieniłeś wiele usług, jednak ani jednego protokołu lub technologii które znasz. Według mnie bardziej istotna jest dobra znajomość podstaw aniżeli umiejętność jednie wykonania prac operacyjnych pozwalających na uruchomienie danej usługi lub jej funkcjonalności. Pamiętaj, że posiadając jedynie wiedzę jak coś wykonać, a nie jak to "coś" działa, sprowadzasz się do roli operatora. 

     

    Sugerowałbym poznać (nie tylko ze słyszenia) podstawowe protokoły warstwy siódmej jak: http, smtp, pop3, imap, dns, ssh, po czym przynajmniej warstwy trzeciej: tcp, udp, icmp oraz na koniec warstwy drugiej: arp i ethernet. Podstawowe zagadnienia sieciowe, czyli zaczynając od podstaw warstw modelu OSI, statycznego routingu oraz dogłębnego zrozumienia jakie są zależności między warstwami 2/3/4. W kwestii podstaw bezpieczeństwa to zrozumienia zagadnień związanych z SSL/TLS, zasad działania i "ecosystemu" ssh oraz  w przypadku systemów Linux nss/pam. W zakresie zasad działania systemy Linux zrozumienie dokładne co się dzieje etap po etapie od chwili załączenia zasilania w urządzeniu do pojawienia się "Login;" na konsoli z uwzględnieniem systemd.  

     

    Dobre podstawy i fundamenty pozwalają na świadome poznawanie usług które wymieniłeś i ich wykorzystanie, nie wspominając o umożliwieniu dokonywania poprawnego troubleshootingu czyli rozwiązywania zaistniałych problemów.

     

    Jeśli poszukujesz dobrego kompendium podstawowej wiedzy to polecam książkę przygotowującą do RHCE, jest to podstawowa wiedza którą dobrze znać aby rozpocząć swoją ciekawą przygodę z administracją systemami informatycznymi. ISBN: 1495148203

     

    Powodzenia !

  12. @hosemd Czy cały czas wątek dotyczy tego samego ? wcześniej pisałeś:

    W dniu 27/10/2017 o 11:17, housemd napisał:

    usłudze dynamicznie przydzielającej zasoby, dodatkowo płatnych ponad ustalony limit.

     

    Przyznam, że jeśli obecnie uważasz że informacja w jaki sposób są obliczane (w tym uśredniane) dane które stanowią podstawę do obliczenia dodatkowo płatnych usług to przyznam że jest bardzo zdziwiony Twoim komentarzem.

     

    Jednak jeśli nawet przyjąć, że dane te nie są podstawą do obliczenia dodatkowych opłat, to sam napisałeś wcześniej że ciekawią Cię nagłe skoki w udostępnianych przez dostawcę danych. Czy podstawą do ustalenia z czego one mogą wynikać nie jest ustalenie źródła danych oraz sposobu ich obliczania jeśli one są prezentowane klientowi ? Jeśli trzymać się założenia że sposób obliczania tych danych jest "tajemnicą firmy" to także można przyjąć że prezentowane dane są po prostu losowo generowane, ale wtedy są zupełnie bezużyteczne dla klienta zatem jaki cel ich udostępniania ?

     

    Wszyscy więksi światowi dostawcy usług (mam na myśli usługi typu AWS, GCE, Azure), bardzo jasno technicznie w większości przypadków opisują w dokumentacji co dokładnie jest źródłem danych oraz jak jest to obliczane, w szczególności jeśli stanowi podstawę do rozliczeń. Ciekawostką jest na przykład na platformie GCE sposób obliczania iops zapisu, ktoś nie znając sposobu obliczania może się bardzo zdziwić :-) (to taka dygresja).

     

  13. @sebek uważam inaczej :-) 
     

    31 minut temu, sebak napisał:

    gwarantować zawsze minimum 30% wolnych zasobów na danym nodzie(zalecane 50%) i

     

    Potwierdzasz zatem to co pisałem poprzednio. Minimum, czyli może być teoretycznie znacznie więcej wolnych zasobów, w takim przypadku odczucie użytkownika który wymaga więcej zasobów będzie lepsze aniżeli tam gdzie jest ich bliżej minimum. 

     

    34 minuty temu, sebak napisał:

    klasyczny hosting współdzielonym nie powinien nawet zbliżyć się do 20-30% tych zasobów

     

    Zakładasz zatem że użytkownicy będą mieli górną granicę możliwości wykorzystania zasobów nawet jeśli są one wolne, jeśli jednak takiego limitu nie ma to odczucie użytkownika może być różne w zależności od fizycznych zasobów.

     

    Oczywiście zgadzam się w zupełności że wszystko zależy od dynamicznego balansowania użytkowników na fizycznych zasobach, jednak patrząc na rzeczywistość hostingu to tylko nieliczni z tego korzystają i zapewne nie tak dynamicznie jak byś tego oczekiwał. 

     

    Tak na marginesie to "zalecane" przez kogo ? ;-)

  14. @sebak maszyna ma 10 klientów, 100 jednostek mocy zasobu, jesteś zatem za tym aby 10 klientów miało zawsze dostępnych tylko 10 jednostek ?  hosting współdzielony polega na tym że 10 klientów otrzymuje zwykle dostęp do 100 jednostek mocy, a minimum 10 jednostek, co powoduje że dostępna moc jest zależna od wykorzystania innych. Jeśli 9 klientów korzysta tylko z 2 jednostek każdy (9x2 = 18 łącznie) to jeden z nich ma możliwość wykorzystania 82 jednostek. Oczywiście od dobrego dostawcy usługi zależy jak sprawnie balansuje klientów na zasobach fizycznych, ale patrząc na większość to zaawansowanie techniczne polega zwykle na instalacji i utrzymaniu standardowych rozwiązań typu DA. Jedna nawet z najlepszym balansowaniem rezultat jest wypadkową.

     

    Oczywiście inaczej sytuacja wygląda jak mamy do czynienia z bardziej zapewnionymi (nie chcę użyć słowa gwarantowanymi) zasobami tak jak w przypadku platform chmurowych jak aws, gce czy azure.    

    Pomijam kwestie overbookingu, etc. na którym jest bazowany hosting współdzielony.

     

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Korzystając z forum, wyrażasz zgodę na: Warunki użytkowania, Regulamin, Polityka prywatności.