Skocz do zawartości

sebak

Donatorzy
  • Postów

    142
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    17

Treść opublikowana przez sebak

  1. @SiXwishlist nie mówiłem o backupie 2TB danych, tylko o koszcie dysku 2TB. Oczywiście backup wszystkich danych na SSD, jest obecnie zbyt drogi i sam go nie stosuję. Jednak jak pisałem wyżej, mam jedną instancję której kopię robię na SSD i jest to celowe, gdyż w tym przypadku czas podniesienia usług z kopii jest dla mnie kluczowy.
  2. @Adam Szendzielorz dlatego też mam tylko jedną taką instancję ;-). Na backup w zupełności starczą dyski SSD pokroju Crucial MX300, które są po około 2k zł za 2 TB. Zwłaszcza jeśli kopia jest kopią przyrostową, generowaną poprzez przesyłanie różnicy między snapshotami. Generuje to minimalne ilości zapisu.
  3. A ja mam jedną instancję na której trzymam backup na SSD. Jest to kopia, z której w razie awarii mogę podnieść usługę. Więc czasem i na backup idą SSD ;-).
  4. @mcbarlo random read, random write czy random read/write? W tym ostatnim dyski talerzowe radzą sobie najgorzej, a niestety ma on najwięcej wspólnego z normalnym ruchem. Nie znam się na Cephie, więc nie wiem na ile on ma wpływ na wydajność.
  5. @mcbarlo jeśli chodzi o transfery, faktycznie dyski talerzowe poszły do przodu. Więc jeśli potrzebujesz przepustowości, to będzie dobry wybór. Niestety gorzej wychodzi jeśli chodzi o iops'y i losowe operacje odczytu / zapisu.
  6. @Sevos tu nie do końca chodzi tylko i wyłącznie o klientów ;-). Powiem Ci jak ja to widzę z punktu widzenia usługodawcy. Wolę wydać więcej funduszy na sprzęt, gdzie jest to wydatek jednorazowy i mieć święty spokój z wydajnością, niż zatrudniać ludzi do reagowania na problemy wynikające z chwilowych problemów z wydajnością. @SiXwishlist dyski talerzowe oczywiście są fajne i znajdziesz dla nich zawsze zastosowanie, jeśli wiesz mniej więcej jaki ruch mają przyjąć. SSD w większości zwalnia Cię z myślenia, co się stanie jeśli ruch okaże się większy niż planowałem ;-).
  7. sebak

    Dyski NVMe, a RAID

    @mcbarlo nvme jest tak naprawdę protokołem komunikacyjnym, tak jak AHCI. Dyski takie mogą być w formacie PCIe, M.2, U.2(SFF- 8639). O ile PCIe, czy M.2 nie wymienisz w locie, to dyski U.2 są już w pełni do tego przystosowane. PS: Pamiętam jeszcze kilka lat temu, że prawie wszystkie dyski PCIe były w standardzie AHCI. Na Karcie miałeś 4 dyski, połączone RAID 0 ;-). Moim zdaniem, problem z nvme nie jest na poziomie RAID'u, ale ograniczenia obsługiwanych linii PCIe przez platformę. Taka platforma pod Xeon E3 obsługuje tylko PCIe 16x, natomiast każdy dysk PCIe zajmuje 4 linie. Łatwo tutaj policzyć, że przy RAID 10 z 4 dysków wykorzystujemy już pełną przepustowość PCIe. A do tego procesora musi być podłączona jeszcze grafika, sieć, usb itp. Trzeba więc dość dobrze zaplanować dobór odpowiedniej platformy pod wiele dysków PCIe ;-). Dysk SSD PCIe, nie różną się aż tak bardzo jak dyski SATA SSD. Jedne i drugie korzystają z podobnych kości pamięci i posiadają podobne konstrukcje, główną różnicą jest zastosowany kontroler. Wiec jeśli kupisz tani dysk PCIe, to będzie można go łatwo zajechać, podobnie jak w przypadku dysków SATA. Jeśli kupisz dysk PCIe enterprise, to jeśli nie będzie wady fabrycznej to taki dysk jest praktycznie nie do zajechania. Tutaj wszystko tak naprawdę zależy od obciążenia i przeznaczenia. Jeśli robisz 10TB zapisu rocznie, to bez sensu kupować dysk który wytrzyma 10 PB zapisu ;-). Dyski SSD PCIe stosuję od około 2-3 lat, zarówno w RAID jak i bez.
  8. 100% pozytywne ;-). Różnica między dyskami SAS, a SSD jest gigantyczna, ale wszystko zależy od obciążenia które generujesz. Przy małym obciążeniu i dyski SATA będą dobrze działać. Dyski SSD z perspektywy usługodawcy dają zdecydowanie mniejszą awaryjność, niż jakiekolwiek dyski talerzowe. Eliminują też problem z nagłym skokiem obciążenia. Z perspektywy klienta, dyski SSD zapewniają dużo lepszą wydajność, w tym tą związaną z czasami dostępu do danych.
  9. @Adam Szendzielorz w tej chwili z tego storage korzysta około 400 serwerów VPS. Jako ciekawostkę dorzucę efektywność pamięci l2arc: Wykorzystujecie w swoich konfiguracjach cache l2arc? Edit: Dodam jeszcze jeden ciekawy wykres pokazujący co się dzieje z pamiecią ARC po jej zwolnieniu: Przed tuningiem l2arc, około 90% pamięci która była zwalniana z ARC, nie trafiała w ogóle do l2arc.
  10. U mnie ten storage, to akurat KVM'y, jak widać ten rodzaj klientów ma trochę większe zapotrzebowanie na przepustowość ;-). Była to moja pierwsza duża macierz ZFS, stąd też wydajność była dla mnie jednym z priorytetów, bo nie wiedziałem wtedy czego mogę się spodziewać. Zarówno po klientach, jak i ZFS'ie, niemniej chciałbym mieć takie obciążenia jak u Ciebie ;-).
  11. @Adam Szendzielorz moje doświadczenie mówi, że RAIDZ jest wydajniejszy niż RAID 10. Tutaj masz stronę z fajnymi testami: https://calomel.org/zfs_raid_speed_capacity.html Moja konfiguracja 5x RAIDZ 5 dysków (25 łącznie), przyjmuje obecnie następujące obciążenie: https://www.dropbox.com/s/x8i44awm950uf4v/Zrzut ekranu 2017-09-15 00.18.22.png?dl=0 Wykres przedstawia sumaryczne operacje na wszystkich dyskach, realne obciążenie(po odrzuceniu dysków z parzystością) to 4/5 tych wartości. A jakie obciążenia średnio generują Wasze macierze?
  12. Tam gdzie muszę Centos, tam gdzie mogę Freebsd ;-).
  13. macOS Sierra i ogólnie OS X od 6-7 lat.
  14. Moje doświadczenie jest głównie z ZFS na Freebsd, na Linux mam tylko 1 maszynę produkcyjną. Robiąc kiedyś porównanie wydajności i zachowania się ZFS'a na obu systemach, doszedłem do wniosku, że ZFS on Linux to zbyt duże ryzyko dla mnie. Testowałem też ZFS'a na Solarisie, jednak tam z kolei system wydawał się zbyt niszowy. Poza backupem, 100% danych trzymam na SSD. Nie wiem jak teraz, ale kiedyś ZFS on Linux nie dorobił się wsparcia dla trim'a, oferował gorszą wydajność na Linux, oraz większe zapotrzebowanie na ram. Dodatkowo nie ZFS na Linux nie wspierał partycji systemowej na ZFS, a to jest bardzo przydatne przy tworzeniu macierzy dyskowej. Moja najwieksza macierz na ZFS składa się z 25 dysków SSD, 2 dysków SSD pod system i 2 dyski PCIe. Jeśli chodzi o deduplikację, wcale nie jest aż tak obciążająca jak mówisz @Adam Szendzielorz. Oczywiście wymaga to odpowiednio dużego recordsize, oraz kilku innych optymalizacji (jak np. dysk pod l2arc dedykowany na metadane). Przy odpowiednio szybkim dysku SSD l2arc nawet nie potrzebujesz dużo ramu do deduplikacji. Oczywiscie l2arc sam w sobie wymaga też tuningu... W Freebsd standardowo l2arc zapis do pamięci ssd jest ograniczony do 5 MB/s, oraz domyślnie dysk może na raz tylko odczytywać lub zapisywać dane. Przy NVMe te limity są śmieszne ;-). Podsumowując, ZFS ma masę zalet, ale trzeba mieć o tym pojęcie. Inaczej dużo łatwiej zrobić sobie krzywdę, niż na innym systemie plików.
  15. df to najmniejszy problem w przypadku zfs'a ;-)
  16. Nie polecam ZFS'a jeśli nie chcesz poświęcić dość dużej ilości czasu na jego poznanie i zrozumienie. Jest to system plików, który niestety ma lekko inną implementacje w zależności od systemu operacyjnego na którym działa(Linux, Unix, Solaris). ZFS ma bardzo wiele opcji konfiguracyjnych, które dają ogromne możliwości doświadczonym użytkownikom. Jednak przy złych ustawieniach, wydajność można zdegradować kilkusetkrotnie, czego nie doświadczymy praktycznie na żadnym innym systemie plików. Natomiast ustawienia nie są uniwersalne, w dużej mierze zależą od tego jakie dane trzymamy i jakimi dyskami dysponujemy. Osobiście uwielbiam ZFS'a, stosuję go już produkcyjnie od kilku lat i odpowiednio skonfigurowany działa perfekcyjnie. Jednak zanim to nastąpiło, było wiele momentów gdy nienawidziłem tego systemu plików ;-).
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Korzystając z forum, wyrażasz zgodę na: Warunki użytkowania, Regulamin, Polityka prywatności.