Crawler un site Web avec wget

Par @Quack1 dans le
Tags : #Wget, #Crawl, #Tips, #Linux, #planet-libre, #planet-ubuntu,
Partagez cet article! ~ Google+ ~ ~ Linkedin ~ Mail
Flattr this

Billet totalement inutile puisqu'on pourrait me répondre "RTFM" à la question "Comment aspirer récursivement un site Web avec wget tout en ré-écrivant les liens en adresses locales", mais je préfère la noter ici pour savoir directement où chercher la prochaine fois que j'en aurais besoin!

wget -rkpE <uri>
  • -r : récursif
  • -k : converti les liens en liens locaux
  • -p : télécharge tous les fichiers nécéssaires à l'affichage de la page en local
  • -E : modifie les extensions des pages Web en .html
Cet article est libre et diffusé sous une licence Creative Commons CC-BY-NC. Vous pouvez rémunérer son auteur en utilisant le système Flattr :
Flattr this

Comments !