Alain Aubert
Legendäres Mitglied
Hallo WF
Aufgrund Umzug müssen wir einen kompletten Server backuppen mit mehreren Projekten. Auf Nachfrage hin habe ich erfahren was scp ist. http://www.google.com/search?hl=de&lr=&ie=...ual&btnG=Search
Wirklich ein super Programm. So hab ichs gemacht:
CODE scp -r root@123.123.123.123:/srv/home/htdocs/ /home/backup
Funktioniert schon seit Stunden wunderbar. Jetzt habe ich mich aber gefragt, ob es nicht sinnvoller wäre sich manuell per ssh einzuloggen und die gewünschten Daten per gzip oä zu packen und erst dann herunterzuladen...? Vor allem für Websites mit vielen einzelnen Html Files benötigt dieses Prozedre viel Geduld. Sind viele kleine Files wie ich vermute viel aufwändiger?
Scp ist Für Linux User selbstverständlich, für Windows User hier: http://winscp.sourceforge.net/eng/
Aufgrund Umzug müssen wir einen kompletten Server backuppen mit mehreren Projekten. Auf Nachfrage hin habe ich erfahren was scp ist. http://www.google.com/search?hl=de&lr=&ie=...ual&btnG=Search
Wirklich ein super Programm. So hab ichs gemacht:
CODE scp -r root@123.123.123.123:/srv/home/htdocs/ /home/backup
Funktioniert schon seit Stunden wunderbar. Jetzt habe ich mich aber gefragt, ob es nicht sinnvoller wäre sich manuell per ssh einzuloggen und die gewünschten Daten per gzip oä zu packen und erst dann herunterzuladen...? Vor allem für Websites mit vielen einzelnen Html Files benötigt dieses Prozedre viel Geduld. Sind viele kleine Files wie ich vermute viel aufwändiger?
Scp ist Für Linux User selbstverständlich, für Windows User hier: http://winscp.sourceforge.net/eng/