Aby wykonać najprostszą kopię plików na serwerze należy utworzyć plik (nazwijmy go backup.php) o zawartości: <? $nazwakatalogu='/mojastrona'; $nazwapliku='backup.tar.gz'; system("tar zcf $nazwapliku $nazwakatalogu"); echo '<a href='.$nazwapliku.'>'.$nazwapliku.'</a>'; ?>Plik umieszczamy na serwerze w głównym katalogu. W zmiennej $nazwakatalogu umieszczamy jaki katalog chcemy backupować w tym przypasku jest to katalog /mojastrona w zmiennej $nazwapliku umieszczamy nazwę pliku backupu w tym przypadku backup.tar.gz (tar.gz zostawiamy zawsze aby potem nie było problemów z rozpakowaniem) po przygotowaniu takiego pliku i umieszczeniu go w głównym katalogu serwera wywołujemy go przez nazwahosta.home.pl/backup.php czekamy chwilę (o długości wprost proporcjonalnej do wielkości pakowanego katalogu) następnie klikamy na widoczny link do backupu i pobieramy go na dysk. UWAGA! W ostatnim czasie sprawdza się to tylko do niedużych backupów, przy większych otrzymujemy Gateway timeout (504) kiedyś było z tym nieco lepiej Uwaga 2! Po backupie nie zapomnijmy o skasowaniu przez FTP pliku backupu i tworzącego backup (php) z serwera.
Witam prosze o sprecyzowanie: "UWAGA! W ostatnim czasie sprawdza się to tylko do niedużych backupów, przy większych otrzymujemy Gateway timeout (504) kiedyś było z tym nieco lepiej" W jaki sposób można zrobić backup za pomocą php z opcją wykluczenia katalogu? np: / oprócz /temp, /..., /...
jeśli chodzi o nie duże backupy to chodzi o to, że serwer ma ustawiony czas życia skryptów i przekroczenie go powoduje wyskoczenie błędu (bez problemu daje się tarować z konsoli przy serwerach linii profesjonalnej) aby wyłączyć dany katalog z backupu dopisujemy --exclude nazwakatalogu czyli np: system("tar zcf $nazwapliku $nazwakatalogu --exclude temp"); należy pamiętać, o odpowiednim wskazaniu ścieżek
ja o niej doskonale wiem jednak nie pomaga na tyle aby zrobić kopię większych serwisów, powiem tylko tyle, 5 minut tym nie osiągnę, a tyle taruje się mój serwer. Bez konsoli byłoby ciężko zrobić kopię, a ciąć na kawałki i wykonywać sekwencyjnie to jednak sporo zabawy.
Czy sprawdzałeś to o czym piszesz? Bo ja tak, w moim przypadku kompresja "po kawałku" nie wchodzi w grę. Tak można się bawić, a nie pracować. Owszem jeśli masz statyczne nazwy folderów z niewielką zawartością możesz zrobić to prosto krokowo, jednak jeśli masz dynamicznie zmieniające się nazwy folderów z zawartością rzędu GB czy choćby setek MB z dużą ilością plików zapomnij o prostym rozwiązaniu, dodatko to co się taruje wypadałoby potem z gzipować co również trwa. W sumie nawet byłbym w stanie opanować to skryptem, lecz o wiele lepszym rozwiązaniem jest tarowanie i gzipowanie wszystkiego z konsoli i ewentualnie przesyłanie tego na inny serwer ftp lub pobieranie na lokalny komputer. Podobnie jest z MYSQLem, o ile bazki <100MB bez problemu można PHPem zbackupować, to już większe i takie rzędu n GB to już tylko konsola.
po pierwsze kombinujesz totalnie pod górę, backup nie robi się żadnymi zabawami jak proponujesz backup robi się z poziomu panela hostingowego plesk (automatycznie), directadmin (manualnie, 1 klik), cpanel (nie wiem) po drugie, selektywne backupy robi się z crona wówczas skrypt wygląda tak: #!/bin/bash tar -cjf /home/mylogin/tmp/arcfull.tar.bz /home/mylogin/domains/domena.pl --exclude= /home/mylogin/domains/domena.pl/stats --exclude= /home/mylogin/domains/domena.pl/logs mail -s "pobierz duze archiwum" nick@domena.pl < /home/mylogin/tmp/arc_full.tar.bz
Czy Ty masz serwer na home, że masz takie stwierdzenia? Radzę zapoznać się z tym hostingiem a dopiero wtedy się wypowiadać. Wiem co piszę więc nie staraj się odpowiadać tekstami które wprowadzają w błąd. I dodatkowo, żadne panele nie pozwalają na to na co pozwala konsola przy wyższych serwerach w home.
nigdzie nie napisales że chodzi o hosting home (napomknąłeś jedynie ścieżkę home.pl) nie mam hostingu na serwerze home.pl, i nigdy nie będę mieć, używam hostingów max 50zł rocznie home.pl używam tylko darmowych rejestracji domen, przedłużenia droższe niż 50zł też mi nie odpowiadają directadmin pozwala na stosowanie konsolowych komend w cron i nie zamierzam za to nigdy placic wiecej niz 50zł/rok i to wlasnie directadminem backup selektywny robię (komendy które podałem wyżej)
@zlotowinfo oraz @TheL proszę Was abyście zakończyli tą dyskusję. @zlotowinfo jak widzisz forum dedykowane jest dla dyskusji dot. usług home.pl. Również ich posiadanie jest warunkiem rejestracji na forum. W chwili obecnej nie przewidujemy tworzyć kategorii dot. konfiguracji i tworzenia rozwiązań, które nie dotyczą bezpośrednio naszych usług.
zatem możecie wyciągać wnioski z wypowiedzi i udoskonalać swoje usługi użytkownik miał problem i wasz hosting poprostu sobie nie radzi p.s. dziękuję za darmowe domenki
Oczywiście, rozumiem Twoje zdanie na ten temat, ale pamiętajmy jednak, że model usługi jaki oferują firmy konkurencyjne lub firmy z branży, często bywa różny. Za każdym z nich kryje się także multum parametrów, stworzonych po to aby np. zwiększyć bezpieczeństwo, ograniczyć ryzyko itp. i w zależności od potrzeb, niektóre z nich mogą być uciążliwością dla jednych a zbawieniem dla innych. Zdajemy sobie z tego sprawę, dlatego jak w każdym tego typu przypadku, zgłaszam niezwłocznie Twoje sugestie dalej.
mimo wszystko pretendenta do najdroższego hostingu w Polsce użytkownik ma problemy ze zrobieniem kopii zapasowej jak tu nazwać... if(cena>jakość)backup=haha;
Kopia bezpieczeństwa udostępniana jest przez nas bezpłatnie, w związku z tym użytkownik nie ma problemu. Po prostu nie musi tego robić samemu
@TheL A jakaś opcja na automatyzację backapów? Powiedzmy kilkanaście folderów(stron) gdzie całość daje błąd 504 ? Podział na kilka sztuk z przeskokiem do następnego xxx.php? Zadziała? P.S. I jeszcze pełny backup mySQL dla kilkunastu baz? Czy raczej użyć narzędzi zewnętrznych?