Skocz do zawartości
Puzzel

konto / serwer pod backup

Rekomendowane odpowiedzi

Hej,

Potrzebuje jakiegoś konta / serwera stricte pod backup prywatnych danych pojemność myślę że maks 100GB. Dostęp minimum po sftp. Zależy mi oczywiście na jak najniższej cenie. Co możecie mi polecić?

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

Webh.pl ma chyba storage od 1TB lub 500gb podpinany do zwykłego VPSa. Polecił bym Ci AWS S3, przy tej ilości to chyba nawet miał byś za free przez rok tylko tam nie ma sftp. Innymi podobnymi rozwiązaniami jest OVH Cloud Archive czy online.net C14.

 

Jeżeli miałby to być zwykły VPS to może https://tiktalik.com/pl/ przy 100gb kosztował by VPS około 20zł brutto. 

 

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

webh bardzo fajne ale to za dużo zasobów jak na moje potrzeby wybiorę ovh cloud archive albo online.net c14. Dzięki za pomoc.

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

Sam po tym temacie wziąłem się za testy ovh :)

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

Ktoś używał C14 z online.net? Z tego co wyczytałem to co 7 dni sejf/archiwum się zamyka. Jak w takim razie robić dzienne backupy? Co 7 dni trzeba tworzyć nowy sejf i aktualizować skrypty nowymi danymi? Bo każdy sejf to inny uri, login, hasło.

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

Tworzysz sejf (to jest hot storage), wrzucasz dane, a na końcu archiwizujesz sejf (czyli umieszczasz go wtedy na cold storage).

Zarchiwizowany sejf wtedy jest przechowywany do czasu kiedy go nie usuniesz.

Jak potrzebujesz dostępu, to wtedy zlecasz dearchiwizację i ponownie masz to dostępne jako sejf.

 

Trzeba tylko zwrócić uwagę, że operacje archive, unarchive i delete przy C14 Standard i Enterprise są płatne ;)

 

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach
Napisano (edytowane)

No właśnie problem  jest z automatycznym zamykaniem sejfu: tworzę nowy, a on za 7 dni się zamyka i archiwizuje.

 

Ja mówię o backupach automatycznych, które co 7 dni będą mi przestawać działać, bo sejf zamknięty. Więc po 7 dniach muszę tworzyć następny sejf, ale on już powstaje z nowymi uri, portami i  hasłami, więc muszę aktualizować dane dostępowe we wszystkich skryptach. I tak co 7 dni.

 

Coś przeoczyłem?

 

Edytowane przez nnd.newbie

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach
6 godzin temu, nnd.newbie napisał:

Więc po 7 dniach muszę tworzyć następny sejf, ale on już powstaje z nowymi uri, portami i  hasłami, więc muszę aktualizować dane dostępowe we wszystkich skryptach. I tak co 7 dni.

 

Nie. Modelowo to co każdy backup tworzysz nowy sejf, umieszczasz potrzebne dane i go od razu po tym archiwizujesz.

Plus jakiś guardian który cyklicznie czyści stare zarchiwizowane sejfy zgodnie z jakimś tam harmonogramem.

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

Twój model bardzo piękny, ale trudny do zastosowania. Przypominam, że mowa o backupach AUTOMATYCZNYCH, odpalanych z schedulera bez ingerencji ludzkiej. W Twoim modelu te skrypty musiałyby sobie same otworzyć nowy sejf, a potem go zamknąć. Rozumiem, że jest to do zrobienia przy użyciu API, ale dla mnie to jak strzelanie z armaty do komara.

 

Skrypty działają na najróżniejszych systemach np. hosting WWW, Centos, Windows Server 2003 z Server SQL 2008  czy np. FreeNAS. Każdy z nich używa prostych narzędzi dostępnych na danej platformie: tar, zip, rsync, ftp, zrzut baz danych itp.

 

W modelowym podejściu musiałbym napisać aplikację do API na każdej tej platformie w dostępnych na nich technologiach. I szczerze mówiąc czarno to widzę w przypadku np. FreeNASa czy Windows Serwer 2003.

 

Stąd pytanie czy ktoś to już robił w praktyce, a jeśli tak to jak to rozwiązał. Bo jak nie to pozostanę przy OVH Cloud Archive gdzie założony kontener ma nieograniczony czas życie, a zamrażają się poszczególne pliki, a nie cały kontener.

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach
1 minutę temu, nnd.newbie napisał:

Twój model bardzo piękny, ale trudny do zastosowania.

 

On nie jest trudny.

 

1 minutę temu, nnd.newbie napisał:

Rozumiem, że jest to do zrobienia przy użyciu API, ale dla mnie to jak strzelanie z armaty do komara.

 

2 minuty temu, nnd.newbie napisał:

W modelowym podejściu musiałbym napisać aplikację do API na każdej tej platformie w dostępnych na nich technologiach. I szczerze mówiąc czarno to widzę w przypadku np. FreeNASa czy Windows Serwer 2003.

 

Zatem... nie jesteś po prostu targetem tej usługi ;)

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

No dobra to z innej beczki. Rozumiem, ze używasz tej usługi. Jak ze stabilnością i wydajnością? Były jakieś problemy?

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

Testowałem ją niedawno. Nie było z tym większych problemów technicznych jeśli chodzi o działanie (choć ja wrzucałem tam archiwa DirectAdmina).

Problem tylko był taki, że po analizie kosztów rolloveru kopii (robiąc je w mniej więcej takim modelu jak opisałem wcześniej) wyszło, że nie jest to takie tanie jak by się wydawało.

Wg mnie to bardziej nadaje się (opłaca się) na jakiś schowek-śmietnik na zasadzie "wrzuć raz i zapomnij" niż na cykliczne backupy/operacje.

 

Popatrz sobie jeszcze na Storage Box od hetznera. No ale on nie ma rsync i nfs.

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników, przeglądających tę stronę.

×

Powiadomienie o plikach cookie

Korzystając z forum, wyrażasz zgodę na: Warunki użytkowania, Regulamin, Polityka prywatności.