GNU/Linux >> Tutoriels Linux >  >> Linux

Pourquoi "wget ​​-r -e Robots=off Http://ccachicago.org" n'agit-il pas de manière récursive ?

J'essaie de télécharger récursivement http://ccachicago.org , et j'obtiens exactement un fichier, la racine index.html , téléchargé.

J'ai regardé Télécharger de manière récursive avec wget et j'ai commencé à utiliser le recommandé -e robots=off , mais il se comporte toujours de la même manière.

Comment, avec wget ou un autre outil, puis-je télécharger une copie du site ?

Réponse acceptée :

vous demandez wget faire un récursif téléchargement de http://ccachicago.org , mais cette URL ne fournit aucun contenu direct. à la place, il s'agit simplement d'une redirection vers http://www.ccachicago.org (que vous n'avez pas dit wget à récupérer récursivement)..

si vous dites wget pour télécharger l'URL correcte, cela fonctionnera :

wget -r -e robots=off http://www....

Linux
  1. Comment Linux gère-t-il plusieurs séparateurs de chemins consécutifs (/home////nom d'utilisateur///fichier) ?

  2. Debian – Déplacer /var, /home vers une partition séparée ?

  3. "Impossible de créer un répertoire de cache /home//.composer/cache/repo/https—packagist.org/, ou le répertoire n'est pas accessible en écriture. Procéder sans cache ?

  4. les répertoires statiques http ne sont pas servis

  5. unix:///var/run/supervisor.sock aucun fichier de ce type

Django static_root dans /var/www/... - aucune autorisation pour collectstatic

Quand dois-je utiliser /dev/shm/ et quand dois-je utiliser /tmp/?

Comment savoir à partir de quel dossier un processus est en cours d'exécution ?

Pourquoi mettre des choses autres que /home sur une partition séparée ?

echo ou print /dev/stdin /dev/stdout /dev/stderr

Pourquoi < ou > sont-ils nécessaires pour utiliser /dev/tcp