Skocz do zawartości

mcbarlo

Użytkownicy
  • Postów

    80
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    3

Odpowiedzi opublikowane przez mcbarlo

  1. Mam taki scenariusz:

     

    - duży storage około 120TB z 12 dysków

    - spore pliki powyżej 100 MB

    - same odczyty

     

    Głównie leży i dłubie w nosie, ale czasem musi się spocić. No i jak trzeba odczytać z niego sporą ilość danych jednocześnie tj. dostęp do kilkuset plików na raz to zaczynają się problemy. Odczyt na poziomie 50 MB/s per dysk to w zasadzie wszystko co można zrobić i kończą się iopsy.

     

    Czy macie jakieś realnie działające i sprawdzone metody optymalizacji tego typu przypadku? W zasadzie system plików, scheduler, dirty_ratio niczego nie zmienia. Z powodu kosztów ciężko będzie zbudować to samo na SSD, ale jakiś cache SSD jest już do zrobienia. Tylko tu też nie wiem jaki - może l2arc z ZFS?

  2. 3 godziny temu, Kasjan napisał:

    Swoją drogą, firma już zaczęła chyba oszczędzać na prądzie. Temperatury dysków skoczyły, na jednej maszynie jest niebezpiecznie bo pod 58 stopni. 

     

    Nie żebym się czepiał, ale jak serwer dedykowany jest za czapkę gruszek to na czymś oszczędzić trzeba. :) Aczkolwiek 58 stopni to znowu nie jest jakaś wielka zrodnia. Zależy jeszcze co to za dysk, bo nvme potrafią spokojnie załapać 80 stopni z dodatkowym radiatorem przy temperaturze w serwerowni 21 stopni.

     

    BTW na prądzie to dopiero oszczędności się zaczną jak wszyscy dostaniemy nowe ceny.

  3. Czy dotknął Was kiedyś problem nadmiernej temperatury dysków m.2 nvme? Od jakiegoś czasu jeden z dysków nagle skakał do 100% obciążenia w sumie przy niewielkim transferze. Potem okazało się, że jego temperatura wynosiła równe 100 stopni i pewnie włączał się mechanizm ratujący go przed spłonieciem. :)

     

    Niestety sam serwer jakoś się tym zbytnio nie przejmował i wentylatory miały max 30-kilka%. Czy jakieś naklejanie radiatorów albo inne tego typu patenty mają sens?

  4. Jeśli o mnie chodzi to mam podobne spostrzeżenia jak smarthost. Popłoch jest, ale powoli ogarniają sytuację i mam nadzieję, że nam wszystkim na zdrowie wyjdzie. Kontakt w sumie jest i nawet w sprawach innych niż migracyjne.

  5. Błąd jest w wsdlach. Brakuje zawartości parametru location. Można go sobie pobrać, poprawić i wystawić lokalnie na własnym serwerze. W testowej wersji jest ok.

     

    https://bridge.hrd.pl/partnerAPI/Domain.php?wsdl
    
    <service name="DomainService">
    <port name="DomainPort" binding="tns:DomainBinding">
    <soap:address location=""/>
    </port>
    </service>
    
    https://bridge.test.hrd.pl/partnerAPI/Domain.php?wsdl
    
    <service name="DomainService">
    <port name="DomainPort" binding="tns:DomainBinding">
    <soap:address location="https://bridge.test.hrd.pl/partnerAPI/Domain.php"/>
    </port>
    </service>

     

    • Lubię 1
  6. Jeśli mówimy o produkcji to żaden RAID oparty o sumy kontrolne nie wydaje się być dobrym rozwiązaniem choćby ze względu na URE, kosztowną odbudowę po awarii, koniecznie licencje dla kontrolerów i gorszą wydajność w zapisie. Dla backupów w macierzach złożonych z wielu dysków faktycznie ma sens głównie ze względu na mniejszą stratę pojemności, która w tego typu zastosowaniu jest kluczowa, a wydajność już niekoniecznie. O ile się orientuje fastpath też nie działa przy RAID 5/6.

     

    Mam wrażenie, że patrząc przez pryzmat ZFS-a i Cepha w ogóle RAID sprzętowy odchodzi w zapomnienie. :) Przy dyskach SSD dochodzi jeszcze jedna upierdliwość, czyli TRIM, który nie jest zawsze wspierany. Czasem dlatego, że kontroler jest za stary, a czasem dlatego, że nie ma się nalepki producenta serwera na dysku.

  7. Tak, większość o ile nie wszystkie serwery jednoprocesorowe muszą mieć takie pamięci. W desktopach to się nie spotkałem, raczej w stacjach roboczych.

     

    Opinia moja jest taka, że po prostu działa. :)

  8. Ja ddr3 ecc udimm kupuje w sklepie komputerowym za rogiem. Mam je zawsze na drugie dzień, więc nie wiem gdzie ten problem z dostepnością. Cen nawet nie pamiętam co oznacza pewnie, że nie były wygórowane przesadnie.

     

    Ilość linii PCI-E obsługiwanych przez procesor nie ma znaczenia. Ja mówie o aktywnych fizycznych slotach. Np. w Lenovo RD450 z jednym procesorem masz do dyspozyzji tylko 2 sloty poprzez riser. Żeby skorzystać z pozostałych musisz dorzucić drugi procesor. Jak masz jeden slot zajęty przez kontroler, durgi przez sieciówkę 10G i chcesz wrzucić np. dysk NVMe na karcie PCI-E to musisz kupić procesor, którego nie potrzebujesz i który będzie tylko grzał powietrze.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Korzystając z forum, wyrażasz zgodę na: Warunki użytkowania, Regulamin, Polityka prywatności.