GNU/Linux >> Tutoriels Linux >  >> Linux

Comment extraire tous les liens externes d'une page Web et les enregistrer dans un fichier ?

Vous aurez besoin de 2 outils, lynx et mal à l'aise , essayez ceci :

$ lynx -dump http://www.google.com.br | awk '/http/{print $2}' > links.txt

Si vous avez besoin de numéroter des lignes, utilisez la commande nl , essayez ceci :

$ lynx -dump http://www.google.com.br | awk '/http/{print $2}' | nl > links.txt

Voici une amélioration par rapport à la réponse de Lelton :vous n'avez pas du tout besoin d'awk car lynx a des options utiles.

lynx -listonly -nonumbers -dump http://www.google.com.br

si vous voulez des chiffres

lynx -listonly -dump http://www.google.com.br

Linux
  1. Comment extraire le fichier tar.gz sous Linux à l'aide de la ligne de commande

  2. Enregistrer toutes les sorties du terminal dans un fichier ?

  3. Que sont les liens symboliques (Soft Links) et comment les créer sous Linux

  4. Comment obtenir tous les fichiers dépassant une certaine taille et les supprimer

  5. Comment enregistrer la sortie de cette commande awk dans un fichier ?

Comprendre les chemins de fichiers et comment les utiliser sous Linux

Comment obtenir la date et l'heure actuelles en Python

Comment utiliser Sudo et le fichier Sudoers

Comment enregistrer un fichier dans Vim / Vi et quitter l'éditeur

Comment enregistrer un fichier dans Vi / Vim et quitter l'éditeur

Comment enregistrer de l'audio et l'enregistrer en tant que fichier MP3 avec Audacity