Skocz do zawartości

mcbarlo

Użytkownicy
  • Ilość treści

    65
  • Rejestracja

  • Ostatnio

Wszystko napisane przez mcbarlo

  1. Jak płacisz za prąd to bym jeszcze zwrócił uwagę na TDP. Zresztą pod tego typu zastosowania jeden i drugi procek będzie dłubał w nosie i zapewne pierwsze skończą się dyski.
  2. To jest fajne. Na pewno wykorzystam ten test tylko output przerobie tak żeby było łatwiej parsować wyniki, bo człowiek tego oglądał nie będzie. Dzięki.
  3. Zdecydowanie chciałbym coś w php, bo nie muszę robić nic aby przeprowadzić test. W sensie dostosowywać środowiska ani poszerzać uprawnień. Weryfikacja czasu wczytywania aplikacji to fajny pomysł, ale bardziej złożone aplikacje mają cache na kilku poziomach, więc może być to mało miarodajne. Syntetyczny test jest o tyle lepszy, że zawsze wiadomo co wykonał i w jakim czasie. Jedna próbka sama w sobie o niczym nie mówi, ale zbieranie ich ciągle powinno pokazać jak degraduje się wydajność wraz ze wzrostem obciążenia serwera. Doświadczalnie można ocenić progi przy których trzeba działać choć sama informacja o wystąpieniu różnicy lub nie jest cenna. Test bazy nie będzie jedynym, ale tylko tego mi brakuje. W sumie funkcja benchamark() to fajny bajer i można napisać kilka zapytań na podstawie których wyciągne wnioski.
  4. Szukam skryptu napisanego w php, który testuje wydajność bazy danych MySQL. Żeby nie wynajdować koła od nowa może słyszeliście o jakimś gotowcu? Cel jest taki żeby zbierać wyniki co jakiś czas z różnych serwerów i na ich podstawie decydować o ewentualnej potrzebie rozbudowy. Dlatego test powinien być w miarę uniwersalny.
  5. Perce Hx to sprzętowy RAID. Jak każdy inny może pracować w JBOD, ale to raczej nie zmienia faktu, że będzie się fochał na dyski SSD bez nalepki. Ciekawe czy są jakieś inne karty, które by ten problem eliminowały. Obecnie to jedyna rzecz, która mnie zniechęca do Della. Chyba, że masz jakiegoś luźnego Della to można test wykonać. Dysków kilka różnych mam do testów.
  6. Ja bym stawiał na Proxmoxa z Ceph. W labie próbowałem go zabić na wszelkie możliwe sposoby i mi się nie udało.
  7. Mogą być JBOD-y. Dell wkładał do R630 zwykłe HBA?
  8. Masz doświadczenia z jakimiś konkretnymi modelami? Wiele osób na forum Della pisza, że ma błędy non-critical i świeci się alarm na dysku albo w statusie jest warning w storage'u. Znalazłem też historię, że po padzie dysku macierz nie chciała się odbudować.
  9. Czy w Dellu R630 z kontrolerem RAID H730 można bez obaw montować dyski SSD bez nalepki Della? Chodzi mi o pełne wsparcie dla trim i inne fochy typu wieczne alarmy itp. tak jak to jest np. w serwerach HP.
  10. Szukam w miarę sensownej templatki do Zabbixa do monitorowania hostów Linuxowych po snmp. Te ze strony Zabbixa niestety są dość mocno ubogie. Instalacja agenta nie zawsze jest możliwa, a ma on też swoje ograniczenia także jego chciałbym uniknąć. Wodotrysków nie potrzebuje, ale chciałbym rysować wykresy z obciązenia procesorów, loadu, pamięci z podziałem na usr, sys, bufory itp, iops dysków i zajętość partycji. W zasadzie coś co jest w Cacti out of the box.
  11. Najchętniej użyłbym na cache dysków nvme żeby nie zajmować ramek co skutecznie eliminuje cachecade. Choć mogę się mylić. Czy celowanie w cache na poziomie 10% całego storage powinno dać spore przyspieszenie? Wiem, że to pytanie do szklanej kuli, ale możesz jakieś doświadczenie w tej kwesti masz?
  12. Dane są już skompresowane. Compress ratio jest 1.00x. Za to ZFS jest kuszący pod kątem l2arc i możliwości dowolnego manipulowania wielkością bloku.
  13. Jakiej wielkości jest cache i storage? Obawiam się, że cache do 120 TB powinien być całkiem spory żeby to miało sens.
  14. Mam taki scenariusz: - duży storage około 120TB z 12 dysków - spore pliki powyżej 100 MB - same odczyty Głównie leży i dłubie w nosie, ale czasem musi się spocić. No i jak trzeba odczytać z niego sporą ilość danych jednocześnie tj. dostęp do kilkuset plików na raz to zaczynają się problemy. Odczyt na poziomie 50 MB/s per dysk to w zasadzie wszystko co można zrobić i kończą się iopsy. Czy macie jakieś realnie działające i sprawdzone metody optymalizacji tego typu przypadku? W zasadzie system plików, scheduler, dirty_ratio niczego nie zmienia. Z powodu kosztów ciężko będzie zbudować to samo na SSD, ale jakiś cache SSD jest już do zrobienia. Tylko tu też nie wiem jaki - może l2arc z ZFS?
  15. Nie żebym się czepiał, ale jak serwer dedykowany jest za czapkę gruszek to na czymś oszczędzić trzeba. Aczkolwiek 58 stopni to znowu nie jest jakaś wielka zrodnia. Zależy jeszcze co to za dysk, bo nvme potrafią spokojnie załapać 80 stopni z dodatkowym radiatorem przy temperaturze w serwerowni 21 stopni. BTW na prądzie to dopiero oszczędności się zaczną jak wszyscy dostaniemy nowe ceny.
  16. Czy dotknął Was kiedyś problem nadmiernej temperatury dysków m.2 nvme? Od jakiegoś czasu jeden z dysków nagle skakał do 100% obciążenia w sumie przy niewielkim transferze. Potem okazało się, że jego temperatura wynosiła równe 100 stopni i pewnie włączał się mechanizm ratujący go przed spłonieciem. Niestety sam serwer jakoś się tym zbytnio nie przejmował i wentylatory miały max 30-kilka%. Czy jakieś naklejanie radiatorów albo inne tego typu patenty mają sens?
  17. No właśnie tak się mu przyglądam z coraz większą ciekawością i chyba jakąś testową wersje sobie postawimy.
  18. To jest całkiem ciekawe. Przypomina mi nieco OpenDCIM, ale wygląda zdecydowanie lepiej.
  19. O cholera, nie wiedziałem nawet, że EasyDCIM to rodzima robota. DCImanager widziałem i właściwie wydał mi się dość ubogi. Przynajmniej dostępne na stronie demo.
  20. Rozglądam się za jakimś dobrym rozwiązaniem do zarządzania serwerownią. Póki co najbardziej do gustu przypadł mi EasyDCIM https://www.easydcim.com . Jak macie doświadczenie z innymi systemami to się pochwalcie. Alternatywnie można tworzyć coś samodzielnie, ale zajmie to pewnie lata zanim osiągnie dobry poziom.
  21. Jeśli o mnie chodzi to mam podobne spostrzeżenia jak smarthost. Popłoch jest, ale powoli ogarniają sytuację i mam nadzieję, że nam wszystkim na zdrowie wyjdzie. Kontakt w sumie jest i nawet w sprawach innych niż migracyjne.
  22. Błąd jest w wsdlach. Brakuje zawartości parametru location. Można go sobie pobrać, poprawić i wystawić lokalnie na własnym serwerze. W testowej wersji jest ok. https://bridge.hrd.pl/partnerAPI/Domain.php?wsdl <service name="DomainService"> <port name="DomainPort" binding="tns:DomainBinding"> <soap:address location=""/> </port> </service> https://bridge.test.hrd.pl/partnerAPI/Domain.php?wsdl <service name="DomainService"> <port name="DomainPort" binding="tns:DomainBinding"> <soap:address location="https://bridge.test.hrd.pl/partnerAPI/Domain.php"/> </port> </service>
  23. Stare JSON-owe API działa poprawnie przez mostek. Soapowe niestety nadal nie.
  24. Dane mam, ale efekt taki sam jak patryk opisuje.
  25. Fajny tekst na temat tego dlaczego hot-spare ma niewielki sens: http://www.smbitjournal.com/2012/07/hot-spare-or-a-hot-mess/
×
×
  • Utwórz nowe...

Ważne informacje

Korzystając z forum, wyrażasz zgodę na: Warunki korzystania z serwisu, Regulamin, Polityka prywatności.