Les Post-It de la MerMouY2016-06-01T20:55:26+02:00https://shaarli.youm.org/https://shaarli.youm.org/https://shaarli.youm.org/Aspirer un site avec wget | Rappels utiles Linuxhttps://shaarli.youm.org/?L02hMw2016-06-01T20:55:26+02:00wget -r -k -E -np <a href="http://tar.get/wanted/directory/" rel="nofollow">http://tar.get/wanted/directory/</a><br />
<br />
Donc la cible est <a href="http://tar.get/wanted/directory/" rel="nofollow">http://tar.get/wanted/directory/</a>. Les options :<br />
<br />
-r pour parcourir tous les liens du sites.<br />
-k conversion des liens en liens locaux.<br />
-E conversion php vers HTML, pour relire aisément avec Firefox.<br />
-np pour ne pas remonter dans l’arborescence du site<br />
<br />
D’autre options utiles :<br />
<br />
-lX, où X est un entier, pour ne parcourir que X niveaux de l’arborescence du site.<br />
-c pour continuer un téléchargement interrompu.<br />
–load-cookies si nécessaire.<br />
<br />
Les options pour ne pas pourir le serveur :<br />
<br />
–limit-rate X, pour limiter la Bande Passante à X B/s<br />
-w X pour attendre X secondes entre chaque téléchargement de fichiers.<br />
-T X au bout de X secondes wget abandonne le téléchargement d’un fichier.<br>(<a href="https://shaarli.youm.org/?L02hMw">Permalink</a>)Couvertures Charliehttps://shaarli.youm.org/?SunVGQ2015-01-11T19:34:00+01:00Merci Le Hollandais Volant, je me suis fais une petite sauvegarde aussi...<br />
<br />
La commande pratique:<br />
wget -r -l 1 -nd --no-parent -A.{gif,jpg,png} "<a href="http://www.cochisette.com/photos/?dir=Charlie_hebdo&page=all"" rel="nofollow">http://www.cochisette.com/photos/?dir=Charlie_hebdo&page=all"</a>;<br>(<a href="https://shaarli.youm.org/?SunVGQ">Permalink</a>)Crawler un site Web avec wgethttps://shaarli.youm.org/?jHHWKA2013-07-03T19:00:03+02:00Ça devrait servir... Sous le coude...<br>(<a href="https://shaarli.youm.org/?jHHWKA">Permalink</a>)