J'ai besoin de télécharger un site FTP (un code source de site Web en fait) contenant une très grande quantité de fichiers relativement petits (le télécharger avec FileZilla a pris plus d'une journée, mais je pense qu'il pourrait être téléchargé beaucoup plus rapidement si de nombreux fichiers étaient téléchargés sur une fois). Malheureusement, il n'y a pas d'accès SSH au site et aucun moyen d'archiver les fichiers côté serveur.
Donc, au moins, la question est de savoir comment télécharger un site FTP entier dans un dossier à l'aide d'outils de ligne de commande. Ce serait mieux si le téléchargement pouvait être parallélisé en téléchargeant plusieurs fichiers simultanément au lieu d'un par un.
Réponse acceptée :
Essayez ce qui suit :
wget -r ftp://username:[email protected]
cela ira à 5 niveaux de profondeur; pour augmenter, ajouter le -l
possibilité
Certains serveurs n'aiment pas ce comportement et vous risquez d'être mis sur liste noire en raison de la charge sur le serveur. Pour éviter cela, utilisez le -w
option pour attendre un nombre spécifié de secondes.
Plus d'informations (ainsi que des mises en garde) peuvent être trouvées ici :
http://www.gnu.org/software/wget/manual/wget.html#Recursive-Download
http://linuxreviews.org/quicktips/wget/
--user
et --password
les arguments sont utiles pour les noms d'utilisateur/mots de passe avec des caractères spéciaux.