Skocz do zawartości

mrViperoo

Administratorzy
  • Zawartość

    338
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    20

Zawartość dodana przez mrViperoo

  1. mrViperoo

    Opinie o nazwa.pl

    Przecież commit jest sprzed 22 dni to jak od 2019 roku?
  2. Hej @mion, mógłbyś nam zdradzić czy w umowie którą zawarłeś z home masz jakiś gwarantowany czas odpowiedzi/reakcji na ticket?
  3. Hmm czyli po prostu nie da się kontrolować regionów CDNu w nazwie Dodatkowo wyłączając całkowicie cache przeglądarka będzie za każdym odświeżeniem pobierać pliki statyczne i nie tylko.
  4. @itomek a jak ktoś nie chce przechowywać danych na terenie USA lub nie może z różnych powodów prawnych?
  5. mrViperoo

    Opinie o RapidDC.pl

    Hej, pytanie do użytkowników VPSów. Też macie tak przeciętną (żeby nie powiedzieć tragiczną) wydajność? VPS SSD.normal BYTE UNIX Benchmarks (Version 5.1.3) System: server: GNU/Linux OS: GNU/Linux -- 3.10.0-1127.19.1.el7.x86_64 -- #1 SMP Tue Aug 25 17:23:54 UTC 2020 Machine: x86_64 (x86_64) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: Common KVM processor (4800.2 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET CPU 1: Common KVM processor (4800.2 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET CPU 2: Common KVM processor (4800.2 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET CPU 3: Common KVM processor (4800.2 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 10:15:57 up 158 days, 23:20, 1 user, load average: 0.65, 1.18, 0.70; runlevel 2020-10-14 ------------------------------------------------------------------------ Benchmark Run: Mon Mar 22 2021 10:15:57 - 10:44:25 4 CPUs in system; running 1 parallel copy of tests Dhrystone 2 using register variables 19753191.4 lps (10.0 s, 7 samples) Double-Precision Whetstone 2800.5 MWIPS (9.9 s, 7 samples) Execl Throughput 724.9 lps (29.5 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 129508.9 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 36654.0 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 396343.6 KBps (30.0 s, 2 samples) Pipe Throughput 215386.6 lps (10.0 s, 7 samples) Pipe-based Context Switching 8206.3 lps (10.0 s, 7 samples) Process Creation 2326.8 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 1271.6 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 196.0 lpm (60.2 s, 2 samples) System Call Overhead 203149.7 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 19753191.4 1692.6 Double-Precision Whetstone 55.0 2800.5 509.2 Execl Throughput 43.0 724.9 168.6 File Copy 1024 bufsize 2000 maxblocks 3960.0 129508.9 327.0 File Copy 256 bufsize 500 maxblocks 1655.0 36654.0 221.5 File Copy 4096 bufsize 8000 maxblocks 5800.0 396343.6 683.4 Pipe Throughput 12440.0 215386.6 173.1 Pipe-based Context Switching 4000.0 8206.3 20.5 Process Creation 126.0 2326.8 184.7 Shell Scripts (1 concurrent) 42.4 1271.6 299.9 Shell Scripts (8 concurrent) 6.0 196.0 326.6 System Call Overhead 15000.0 203149.7 135.4 ======== System Benchmarks Index Score 251.0 ------------------------------------------------------------------------ Benchmark Run: Mon Mar 22 2021 10:44:25 - 11:12:57 4 CPUs in system; running 4 parallel copies of tests Dhrystone 2 using register variables 16889220.4 lps (10.0 s, 7 samples) Double-Precision Whetstone 2822.4 MWIPS (9.3 s, 7 samples) Execl Throughput 886.8 lps (29.9 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 69385.7 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 18694.1 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 201296.8 KBps (30.0 s, 2 samples) Pipe Throughput 185268.1 lps (10.0 s, 7 samples) Pipe-based Context Switching 41722.1 lps (10.0 s, 7 samples) Process Creation 2393.0 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 1508.4 lpm (60.1 s, 2 samples) Shell Scripts (8 concurrent) 207.0 lpm (60.6 s, 2 samples) System Call Overhead 182732.1 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 16889220.4 1447.2 Double-Precision Whetstone 55.0 2822.4 513.2 Execl Throughput 43.0 886.8 206.2 File Copy 1024 bufsize 2000 maxblocks 3960.0 69385.7 175.2 File Copy 256 bufsize 500 maxblocks 1655.0 18694.1 113.0 File Copy 4096 bufsize 8000 maxblocks 5800.0 201296.8 347.1 Pipe Throughput 12440.0 185268.1 148.9 Pipe-based Context Switching 4000.0 41722.1 104.3 Process Creation 126.0 2393.0 189.9 Shell Scripts (1 concurrent) 42.4 1508.4 355.8 Shell Scripts (8 concurrent) 6.0 207.0 345.0 System Call Overhead 15000.0 182732.1 121.8 ======== System Benchmarks Index Score 244.8
  6. Spróbuj zmienić user agent i symulować więcej normalnego ruchu. Ewentualnie chromium działa już bez gui to przejdzie JS Challange
  7. mrViperoo

    mysql connector errors

    Jak dalej się męczysz z tym błędem to mam opinię kolegi z pracy: Pozdrowienia dla Kamila, może Ci coś pomoże
  8. mrViperoo

    mysql connector errors

    Hmm Może gdzieś zamykasz kursor wcześniej: https://overiq.com/mysql-connector-python-101/executing-queries-using-connector-python/
  9. mrViperoo

    mysql connector errors

    Może nie ma klienta o podanym ID?
  10. Hej, karta kredytowa != karta debetowa. W europie chyba żaden provider nie robi problemów z debetówkami. Jak masz skończone 18 lat to możesz założyć revoluta i będziesz miał debetówkę za darmo. Z EU jeszcze Hetzner/OVH. W OVH wgl jest troszeczkę inaczej. Jak robisz projekt w public cloud musisz doładować konto kwotą ~40zł z np debetówki czy paypala czy chyba zwykłym przelewem.
  11. W której wersji composer? Wersja 2.0 potrafiła zepsuć trochę instalację paczek
  12. Przepraszam i posypuję głowę popiołem. Generalnie korzystanie z CDNu czy usług proxy mocno opiera się o zaufanie. Nigdy nie mamy pewności czy dany provider CDNu wywiązuje się z tego, co oferuje i obiecuje. Osobiście nie korzystałbym z usług CFa w przypadku krytycznej aplikacji bez podpisania jakiegoś zobowiązania. Tylko odpowiedzialność ponosi klient i osoba włączająca takie proxy, szkoda, że niektórzy providerzy nie dają możliwości z jej korzystania (a widocznie klienci chcą mieć tę możliwość skoro istnieje ten temat).
  13. Dlatego zmienia się adres IP tylko dla zaufanych adresów IP dostawcy np. tych stąd https://www.cloudflare.com/ips/ W logach powinny być oba adresy dla jasności.
  14. CloudFlare to nie tylko CDN ale również może służyć jako VPN, można na jego poziomie blokować adresy IP, państwa czy użytkowników po UA, metryki i ich analiza, ochrona przeciw botom czy WAF. Dalej mam wymieniać?
  15. mrViperoo

    openstack horizon

    Masz problem z openstackiem self-hosted czy korzystasz u jakiegoś providera?
  16. @Poziomecki Do tej pory Centos to była kopia 1:1 RHELu nawet z błędami bez własnościowych elementów (loga, własnościowe toole). Dzięki wsparciu RedHata Centos był mega stabilnym i dojrzałym systemem. Wręcz nudnym ze starymi pakietami, z prehistorycznym jajkiem, ale bardzo przewidywalnym tak, że możesz skonfigurować yum-crona i nie zaglądać tam długi czas. Centos Stream to będzie RHEL 8.x + 0.1 do wersji, poligon doświadczalny RedHata z możliwymi BC w każdej aktualizacji. Dodatkowo nikt zdrowo rozsądkowy nie będzie tworzył na tym swoim produktów/wspierał tego w swoim oprogramowaniu.
  17. https://github.com/hpcng/rocky https://centos.rip/
  18. Jakieś alternatywy poza Oracle Linux?
  19. W hetznerze nie ma opłaty instalacyjnej na wyszczególnione linie dedyków.
  20. mrViperoo

    VPS z IPv6

    oktawave (drogo), hosteam
  21. Haha z tym błędem Szkoda PRów, może to nadszedł czas na jakiś zdecentralizowany github/gitea?
  22. Amazon S3 może być drogie (w standardowym setupie). Generalnie koszty transferów mogą być zabójcze. Jak już macie brać zwykłą AWS s3 to może postawcie jakiś serwer w OVH który będzie cachował wam wideo między AWS s3 a klientami? Do archiwum (800 TB): Amazon glacier (& deep) - ale trzeba poczytać jak to działa OVH Cloud Archive Scaleway C14 Cold Storage Wasabi (tutaj polecam zapoznać się z regulaminem, jest parę haczyków, ale jest tanie)
  23. Haha on nie chce inwestować w zarządzany VPS a ty podsyłasz filmik do AWSu
  24. Z doświadczenia powiem, że ile limit pamięci dla Magento nigdy nie jest za duży. 512MB może być sporo dla średniej aplikacji/dobrze napisanej aplikacji, ale dla krowy e-commerce to nie "bardzo dużo". Sama aplikacja nie będzie używała tylu pamięci za każdym requestem, możliwe, że większa ilość pamięci jest potrzebna, dla jakiego przetwarzania zadań okresowych czy zadań w tle. W każdym razie, jeżeli płacisz za dedykowane zasoby, dowiedz się jaką ilość pamięci ram posiadasz i wtedy niejako musisz zmusić support do zwiększenia ilości + monitorowanie logów czy nie ma przypadkiem OOM. I mocno (jak sami twórcy Magento) zalecam skonfigurowanie varnisha przed samym sklepem, ale to raczej tylko w dedykowanych rozwiązaniach.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Korzystając z forum, wyrażasz zgodę na: Warunki użytkowania, Regulamin, Polityka prywatności.