Skocz do zawartości

mcbarlo

Użytkownicy
  • Postów

    80
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    3

Treść opublikowana przez mcbarlo

  1. Najchętniej użyłbym na cache dysków nvme żeby nie zajmować ramek co skutecznie eliminuje cachecade. Choć mogę się mylić. Czy celowanie w cache na poziomie 10% całego storage powinno dać spore przyspieszenie? Wiem, że to pytanie do szklanej kuli, ale możesz jakieś doświadczenie w tej kwesti masz?
  2. Dane są już skompresowane. Compress ratio jest 1.00x. Za to ZFS jest kuszący pod kątem l2arc i możliwości dowolnego manipulowania wielkością bloku.
  3. Jakiej wielkości jest cache i storage? Obawiam się, że cache do 120 TB powinien być całkiem spory żeby to miało sens.
  4. Mam taki scenariusz: - duży storage około 120TB z 12 dysków - spore pliki powyżej 100 MB - same odczyty Głównie leży i dłubie w nosie, ale czasem musi się spocić. No i jak trzeba odczytać z niego sporą ilość danych jednocześnie tj. dostęp do kilkuset plików na raz to zaczynają się problemy. Odczyt na poziomie 50 MB/s per dysk to w zasadzie wszystko co można zrobić i kończą się iopsy. Czy macie jakieś realnie działające i sprawdzone metody optymalizacji tego typu przypadku? W zasadzie system plików, scheduler, dirty_ratio niczego nie zmienia. Z powodu kosztów ciężko będzie zbudować to samo na SSD, ale jakiś cache SSD jest już do zrobienia. Tylko tu też nie wiem jaki - może l2arc z ZFS?
  5. Nie żebym się czepiał, ale jak serwer dedykowany jest za czapkę gruszek to na czymś oszczędzić trzeba. Aczkolwiek 58 stopni to znowu nie jest jakaś wielka zrodnia. Zależy jeszcze co to za dysk, bo nvme potrafią spokojnie załapać 80 stopni z dodatkowym radiatorem przy temperaturze w serwerowni 21 stopni. BTW na prądzie to dopiero oszczędności się zaczną jak wszyscy dostaniemy nowe ceny.
  6. Czy dotknął Was kiedyś problem nadmiernej temperatury dysków m.2 nvme? Od jakiegoś czasu jeden z dysków nagle skakał do 100% obciążenia w sumie przy niewielkim transferze. Potem okazało się, że jego temperatura wynosiła równe 100 stopni i pewnie włączał się mechanizm ratujący go przed spłonieciem. Niestety sam serwer jakoś się tym zbytnio nie przejmował i wentylatory miały max 30-kilka%. Czy jakieś naklejanie radiatorów albo inne tego typu patenty mają sens?
  7. No właśnie tak się mu przyglądam z coraz większą ciekawością i chyba jakąś testową wersje sobie postawimy.
  8. To jest całkiem ciekawe. Przypomina mi nieco OpenDCIM, ale wygląda zdecydowanie lepiej.
  9. O cholera, nie wiedziałem nawet, że EasyDCIM to rodzima robota. DCImanager widziałem i właściwie wydał mi się dość ubogi. Przynajmniej dostępne na stronie demo.
  10. Rozglądam się za jakimś dobrym rozwiązaniem do zarządzania serwerownią. Póki co najbardziej do gustu przypadł mi EasyDCIM https://www.easydcim.com . Jak macie doświadczenie z innymi systemami to się pochwalcie. Alternatywnie można tworzyć coś samodzielnie, ale zajmie to pewnie lata zanim osiągnie dobry poziom.
  11. mcbarlo

    hrd - migracja trwa

    Jeśli o mnie chodzi to mam podobne spostrzeżenia jak smarthost. Popłoch jest, ale powoli ogarniają sytuację i mam nadzieję, że nam wszystkim na zdrowie wyjdzie. Kontakt w sumie jest i nawet w sprawach innych niż migracyjne.
  12. mcbarlo

    hrd - migracja trwa

    Błąd jest w wsdlach. Brakuje zawartości parametru location. Można go sobie pobrać, poprawić i wystawić lokalnie na własnym serwerze. W testowej wersji jest ok. https://bridge.hrd.pl/partnerAPI/Domain.php?wsdl <service name="DomainService"> <port name="DomainPort" binding="tns:DomainBinding"> <soap:address location=""/> </port> </service> https://bridge.test.hrd.pl/partnerAPI/Domain.php?wsdl <service name="DomainService"> <port name="DomainPort" binding="tns:DomainBinding"> <soap:address location="https://bridge.test.hrd.pl/partnerAPI/Domain.php"/> </port> </service>
  13. mcbarlo

    hrd - migracja trwa

    Stare JSON-owe API działa poprawnie przez mostek. Soapowe niestety nadal nie.
  14. mcbarlo

    hrd - migracja trwa

    Dane mam, ale efekt taki sam jak patryk opisuje.
  15. Fajny tekst na temat tego dlaczego hot-spare ma niewielki sens: http://www.smbitjournal.com/2012/07/hot-spare-or-a-hot-mess/
  16. Jeśli mówimy o produkcji to żaden RAID oparty o sumy kontrolne nie wydaje się być dobrym rozwiązaniem choćby ze względu na URE, kosztowną odbudowę po awarii, koniecznie licencje dla kontrolerów i gorszą wydajność w zapisie. Dla backupów w macierzach złożonych z wielu dysków faktycznie ma sens głównie ze względu na mniejszą stratę pojemności, która w tego typu zastosowaniu jest kluczowa, a wydajność już niekoniecznie. O ile się orientuje fastpath też nie działa przy RAID 5/6. Mam wrażenie, że patrząc przez pryzmat ZFS-a i Cepha w ogóle RAID sprzętowy odchodzi w zapomnienie. Przy dyskach SSD dochodzi jeszcze jedna upierdliwość, czyli TRIM, który nie jest zawsze wspierany. Czasem dlatego, że kontroler jest za stary, a czasem dlatego, że nie ma się nalepki producenta serwera na dysku.
  17. @patrys sorry, że nieco zboczę z tematu, ale masz doświedczenie z fastpath? Muszę skonfigurować serwer z 24 dyskami SSD i zastanawiam się czy to daje realne korzyści? Żeby nie robić całkowitego offtopa dodam, że przy zastosowaniach hostingowych tylko RAID10.
  18. mcbarlo

    Pamięć UDIMM

    Masz rację, napisałem mało precyzyjnie. Przyjąłem, że w serwerach w ogóle się nie stosuje pamięci non-ECC.
  19. mcbarlo

    Pamięć UDIMM

    Można zainstalować w serwerze desktopowy procesor i również wykorzystać pamięci z ECC. Pierwszy lepszy IBM x3250 m6 (wcześniejsze też). W tabelce z procesorami jest informacja dla których jest wpierane ECC: https://lenovopress.com/lp0600-system-x3250-m6-intel-xeon-e3-1200-v5-v6-core-i3-pentium-celeron-g-series
  20. mcbarlo

    Pamięć UDIMM

    Mylisz pamięci ECC z non-ECC. UDIMM ECC stosowany jest w serwerach jednoprocesorowych.
  21. mcbarlo

    Pamięć UDIMM

    Tak, większość o ile nie wszystkie serwery jednoprocesorowe muszą mieć takie pamięci. W desktopach to się nie spotkałem, raczej w stacjach roboczych. Opinia moja jest taka, że po prostu działa.
  22. Sugerujesz, że kupujesz nowe pamięci 4GB po 50-100 zł? W sumie to chętnie bym odkupił troche od Ciebie.
  23. @sebak DDR3 ECC Good Ram 4 GB UDIMM - 219 zł, w wersji RDIMM 239 zł. Nowe, ceny z Ceneo.
  24. Ja ddr3 ecc udimm kupuje w sklepie komputerowym za rogiem. Mam je zawsze na drugie dzień, więc nie wiem gdzie ten problem z dostepnością. Cen nawet nie pamiętam co oznacza pewnie, że nie były wygórowane przesadnie. Ilość linii PCI-E obsługiwanych przez procesor nie ma znaczenia. Ja mówie o aktywnych fizycznych slotach. Np. w Lenovo RD450 z jednym procesorem masz do dyspozyzji tylko 2 sloty poprzez riser. Żeby skorzystać z pozostałych musisz dorzucić drugi procesor. Jak masz jeden slot zajęty przez kontroler, durgi przez sieciówkę 10G i chcesz wrzucić np. dysk NVMe na karcie PCI-E to musisz kupić procesor, którego nie potrzebujesz i który będzie tylko grzał powietrze.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Korzystając z forum, wyrażasz zgodę na: Warunki użytkowania, Regulamin, Polityka prywatności.