Istotnie to nie pomogą, co najwyżej mogą posłużyć za mikro optymalizacje. Dam przykłady:
Załóżmy super nieoptymalny scenariusz, że nasza strona sortuje algorytmem o złożoności wykładniczej , np. bąbelkowo. I tak np. 100 rekordów może posortować w 1 sekundę, ale już 100000 rekordów już w 1 mln sekund. Wrzucenie szybszego CPU przyspieszy operacje do np. odpowiednio 0,8 sekundy i 800 tys. sekund. Dalej źle. Zmiana algorytmu sortowania na quicksort może zmniejszyć czas trwania do ~115 tys. sekund, nawet bez zmiany CPU na lepszy.
Albo OP ma tabelę, z której pobiera dane bez indeksu, co sprawia, że baza skanuje 100000 rekordów w 10 sekund. Gdyby był indeks, wybór rekordów mógłby trwać np. 10 ms.
itp. itd. Powyższe to przykłady wyssane z palca, proszę się nie czepiać obliczeń o precyzji serwetki z restauracji
Nie należy przedwcześnie rzucać się na dokładanie/zmianę zasobów, zanim się nie zrozumie problemu. Może faktycznie kod jest optymalny i lepsze CPU poprawi nieznacznie sprawę, ale faktyczny przełom będzie można osiągnąć wyłącznie przez poprawę algorytmu, lub wstępne obliczenie wyniku...
Nic nie wiadomo, dopóki się nie zajrzy "pod maskę".