Vous pouvez utiliser wget
commande pour télécharger la page et la lire dans une variable comme :
content=$(wget google.com -q -O -)
echo $content
Nous utilisons le -O
possibilité de wget
qui permet de préciser le nom du fichier dans lequel wget
vide le contenu de la page. Nous spécifions -
pour obtenir le vidage sur la sortie standard et le collecter dans la variable content
. Vous pouvez ajouter le -q
option silencieuse pour désactiver la sortie wget.
Vous pouvez également utiliser la commande curl pour cela :
content=$(curl -L google.com)
echo $content
Nous devons utiliser le -L
option car la page que nous demandons a peut-être été déplacée. Dans ce cas, nous devons obtenir la page à partir du nouvel emplacement. Le -L
ou --location
l'option nous y aide.
Il existe de nombreuses façons d'obtenir une page à partir de la ligne de commande... mais cela dépend aussi si vous voulez le code source ou la page elle-même :
Si vous avez besoin du code source :
avec boucle :
curl $url
avec wget :
wget -O - $url
mais si vous voulez obtenir ce que vous pouvez voir avec un navigateur, lynx peut être utile :
lynx -dump $url
Je pense que vous pouvez trouver tellement de solutions à ce petit problème que vous devriez peut-être lire toutes les pages de manuel de ces commandes. Et n'oubliez pas de remplacer $url
par votre URL :)
Bonne chance :)