Skocz do zawartości

sebak

Donatorzy
  • Postów

    142
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    17

Odpowiedzi opublikowane przez sebak

  1. Zbyt duży cache, może mieć wpływ na wydajność, ale nie przy rozmiarze na poziomie 1 TB.

     

    Im więcej ramu tym lepiej, L2ARC dodatkowo obciąża Ci ram, gdyż trzyma tablicę danych w RAMie.

     

    Nie ma prostego przeliczenia RAM <-> pojemność, o ile nie używasz deduplikacji.

  2. Kompresja prawie zawsze daje plus ;-). Zwłaszcza, że jeśli dane mają pomijalny stopień kompresji, nie są kompresowane na dysku.

     

    Jeśli odczyt do tych samych danych będzie zanim dane wypadną z kolejki ostatnio używanych, to warto stosować l2arc.

     

    Jeśli odczytujesz duży plik losowo, a następnie kolejny i kolejny, a dopiero później wracasz do pierwszego, to jest duża szansa, że cache dużo Ci nie da.

  3. Powiedz mi @mcbarlo jaki to będzie odczyt, liniowy, random? Jaki zapis?

     

    Ogólnie cache ZFS'a działa bardzo prostu. Odczyt / Zapis danych trafia do ARC, który podzielony jest na dwa algorytmy: MRU i MFU. Jeden odpowiada za ostatnio używane dane, drugi za najczęściej używane dane.

     

    Wszystkie dane trafiają najpierw do cache przewidzianego dla ostatnio dodanych danych. Jeśli brakuje ramu, nowe dane, wypierają najstarsze dane. Jeśli do danych znajdujących w cache ostatnio dodanych odwołasz się chociaż raz, dane te zostaną przeniesione do drugiego algorytmy, z którego wypieranie danych działa analogicznie. Każde dodatkowe odwołanie do danych, przenosi istniejące tam dane na ostatnie miejsce do zwolnienia z cache.

     

    Załóżmy że masz 4GB ramu i masz zapis na poziomie 5GB, następnie odwołujesz się do 1 GB zapisanych danych. Nie znajdzie się on w cache. Stąd tak istotne jest dobór rozwiązań w zależności od charakterystyki danych.

     

    L2arc to przedłużenie ARC, dane które wypadają z ARC'a trafiają w idealnej sytuacji 1:1 do L2arc.

  4. U mnie na hw, dyski dużo szybciej się zużywały niż w trybie jbod. Jeśli robisz małe obciążenie, to ma małe znaczenie czy stosujesz hw czy jbod, oraz jakich dysków używasz.

     

    Zfs on Linux trima nie wspiera, ale posiada różne zmienne konfiguracyjne których nie posiada freebsd. Freebsd z kolei posiada funkcje których nie posiada solaris i tak natywny ZFS posiada ich najmniej.

  5. Wartości o których mówiłem poprzednio wyciągam właśnie z wartości smart, w zależności od dysków parametry 225, 241, 246.

     

    Przykład dla jednego z storage, w załączniku, oraz czysty smart dla dyski da0 z tego storage. Obecnie na żadnym serwerze nie posiadam już hw.

     

    Nigdy nie analizowałem tego, ze względu na fakt, że ZFS'a używam dla innej wirtualizacji niż ext4. Wszystkie OpenVZ mam na ext4, wszystkie KVM'y na ZFS'ie.

    KVM'y stoją też częściowo na innych dyskach niż OpenVZ(KVM wszedł do oferty 1,5 roku temu).

     

    Wcześniej pisałem, że wiele rzeczy może mieć wpływ na zużycie dysku. EXT4 na ZFS to nadal COW (copy on write), czyli zapis następuje na wolnej przestrzeni. Podczas gdy EXT4 modyfikuje dane na dysku. Pewnie to wpływa na różnice WL. Ewentualnie mam jeszcze jeden trop, ZFS na linuksie nie wspiera TRIM.

    Zrzut_ekranu_2017-09-27_22_04_18.png

    Zrzut_ekranu_2017-09-27_22_09_41.png

  6. @Adam Szendzielorz to były stare czasy, około 3-4 lata temu. Wtedy działało to via hw RAID 10, ext4 (bez trim’a), kernel 2.6.32. Nie twierdze, że była to optymalna konfiguracja dla dysków SSD, ale przy analogicznych warunkach Crucial m550 nie stwarzał takich problemów. Wydajnościowe samsung wygrywał, jeśli chodzi o żywotność, Crucial. Ale jak pisałem wyżej, moje dyski SSD raczej dostają w kość jeśli chodzi o zapis.

  7. A jakie były pierwsze modele dysków SSD jakie używaliście?

     

    Staram się sięgać pamięcią i przypomnieć sobie co to było ;-).

     

    Pamiętam, że pierwszym dyskiem SSD jaki użyłem z interfejsem SATA3 był Crucial C300 gdzieś w 2010 roku.

    To był oszałamiający wzrost wydajności jeśli chodzi o odczyt, dysk rozpędzał się już do 355 MB/s, zapis w zależności od modelu wahał między 55, a 215 MB/s ;-).

     

    Miałem kilka legendarnych dysków intela model X25-E, który charakteryzował się niesamowitą jak na tamte czasy wydajnością 250 MB/s odczyt i 170 MB/s zapis.

    Dysk był cholernie drogi i jako pierwszy miał sensowny endurance, dzięki zastosowaniu kości SLC. A wydajność 35k / 3k iops powalała.

     

    Mało kto pamięta, że pierwsze dyski SSD miały konstrukcję dużo bardziej zbliżoną do pendrive niż do współczesnych dysków SSD ;-). A jednak mimo wszystko dawały zauważalny wzrost wydajności, chociaż te konstrukcje były bardzo drogie i szybko padały. Nie pamiętam jakie dokładnie to były modele, ale było to zdecydowanie przed 2008 rokiem. Może Wy macie lepszą pamięć?

     

  8. @Tomek test podesłany przez Ciebie jest bezwartościowy i nie ma tego jakkolwiek porównać do zastosowań produkcyjnych.

     

    Na żywotność dysku maja wpływ takie czynniki jak:

    - Obsługa lub nie TRIM

    - Zajętość dysku % (im dysk bardziej zajęty, tym dysk szybciej się zużywa)

    - Stopień zastępowania i migracji danych (zapis na SSD jest rozrzucany po najmniej zużytych komórkach. Wiec jeśli 50% danych jest stała i się nie zmienia, komórki w których one są trzymane były zapisywane 1x, natomiast cała reszta zapisu i zmieniajacych się danych nadpisuje cały czas 50% pozostałych komórek)

    - Typ danych (dyski SSD wewnętrznie kompresują dane)

    - Rozmiar rekordu

    - Temperatura pracy

    - i szereg innych czynników

     

    Ja powiem tylko tyle, że mam bardzo negatywne doświadczenie z samsungami 850 PRO. Są to jedyne dyski, które mi fizycznie padły. Co prawda po wyjęciu już z serwerów, ale jednak. Endurace który te dyski wytrzymywały, niewiele przekraczał ten na który była przewidziana gwarancja. Był to jedyny model który miałem i zdecydowałem się na całkowite zastąpienie go innymi rozwiązaniami.

  9. @nrm dobór dysków w moim przypadki zależny jest w dużem mierze od tego jaki zapis przewiduję.

    Dysk SSD to konstrukcja w miarę prosta i mało awaryjna, jeśli nie zużyjesz komórek pamięci.

     

    Z dysków PC, używałem głównie Crucial M550, Samsung 960 PCIe, Intel 750 PCIe.

    Z dysków Enterprise, używałem Micron M500DC i Samsung SM863.

     

    Miałem kilka Samsungów 850 Pro i w moich zastosowaniach te dyski szybciej się zużywały niż Cruciale M550.

    A podobno to Samsungi były dyskami bardziej PRO ;-).

     

    W każdej konfiguracji dyski SSD działają u mnie jako JBOD. Mam złe doświadczenie z kontrolerami SAS i dyskami SSD jako HW.

    Część dysków działa na macierzach ZFS, część bezpośrednio w serwerach.

     

    Na ogól nie zdarzyło mi się, by którykolwiek z tych dysków padł mi na maszynie produkcyjnej.

    Zawsze monitoruję SMART i jeśli coś mnie nie pokoi, to wymieniam dysk.

    Zdarzyło mi się 2 razy, że dysk wyjęty po niepokojących parametrach SMART już mi nie wstał, jak próbowałem go za jakiś czas przetestować.

    • Lubię 1
    • Super! 1
  10. @Adam Szendzielorz niestety, ten najtańszy dysk może i będzie robił 20k, ale tylko przez chwilkę, po zapełnieniu cache wydajność Ci spadnie zdecydowanie.

    Na przykład taki Crucial MX300, którego używam do backupu przy długotrwałym obciążeniu jego wydajność spada Ci do około 5k iops:

    https://www.anandtech.com/show/10274/the-crucial-mx300-750gb-ssd-review-microns-3d-nand-arrives/2

     

    Oczywiście to nadal dużo, ale trzeba mieć na uwadze, że większość dysków SSD przy długotrwałym obciążeniu ma wydajność zdecydowanie mniejszą niż przy krótkich testach na nieobciążonym systemie.

  11. @Adam Szendzielorz przedstawił Ci ciekawe wyniki porównania:

     

    22 godziny temu, Adam Szendzielorz napisał:

    Różnica jest przeogromna - pisałem już tu w którymś wątku - odpowiedź IMAPa przy kilkugigowej skrzynce (kilkaset tys. wiadomości) - przy RAID10 6 x SAS 15k rpm - około 10 sekund, przy 4 x SSD = poniżej 0,5 sek :)

     

     

    Strony www, przeważnie w testach i tak w większości lecą z ramu, więc trudno to odnieść jakkolwiek do dysków.

     

    Zaufaj doświadczeniu innych, my stosujemy dyski SSD od conajmniej 6 lat i różnice na plus były na tyle istotne, że dzisiaj poza kopiami nie stosujemy nigdzie dysków talerzowych.

  12. Wszystko zależy od tego jaką masz infrastrukturę. W innym temacie pisałem, że tam gdzie się da używam ZFS'a.  W przypadku ZFS'a backup jest prosty, mało zajmuje i można praktycznie z maszyny kopii odtworzyć maszyny wirtualne, a kompresja daje zazwyczaj ratio na poziomie 1.3-1,5x. Więc takie kopie, mają dużo mniejsze zapotrzebowanie na dane i wydajność niż inne metody.

     

    Serwery kopii zazwyczaj nie wymagają zbyt dużych zasobów. Ja miałem swego czasu kilka serwerków typu HP Microserver Gen 8 i działało to dobrze ;-).

     

    Uprzedzę przyszłe wydarzenia. Webh niedługo wycofa się z oferty OpenVZ, zostając tylko przy KVM. Głównym powodem takiej decyzji, były problemy z efektownym backupowaniem dużych ilości danych. Gdzie dla KVM i ZFS'a nie stanowiło to najmniejszego problemu ;-).

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Korzystając z forum, wyrażasz zgodę na: Warunki użytkowania, Regulamin, Polityka prywatności.