Vous pouvez utiliser wget commande pour télécharger la page et la lire dans une variable comme :
content=$(wget google.com -q -O -)
echo $content
Nous utilisons le -O possibilité de wget qui permet de préciser le nom du fichier dans lequel wget vide le contenu de la page. Nous spécifions - pour obtenir le vidage sur la sortie standard et le collecter dans la variable content . Vous pouvez ajouter le -q option silencieuse pour désactiver la sortie wget.
Vous pouvez également utiliser la commande curl pour cela :
content=$(curl -L google.com)
echo $content
Nous devons utiliser le -L option car la page que nous demandons a peut-être été déplacée. Dans ce cas, nous devons obtenir la page à partir du nouvel emplacement. Le -L ou --location l'option nous y aide.
Il existe de nombreuses façons d'obtenir une page à partir de la ligne de commande... mais cela dépend aussi si vous voulez le code source ou la page elle-même :
Si vous avez besoin du code source :
avec boucle :
curl $url
avec wget :
wget -O - $url
mais si vous voulez obtenir ce que vous pouvez voir avec un navigateur, lynx peut être utile :
lynx -dump $url
Je pense que vous pouvez trouver tellement de solutions à ce petit problème que vous devriez peut-être lire toutes les pages de manuel de ces commandes. Et n'oubliez pas de remplacer $url par votre URL :)
Bonne chance :)