Si vous êtes sous Linux, il suffit d'une seule ligne de commande pour rapatrier un site web .
wget -r -l5 -k -E "http://www.l_adresse_du_site.a_recuperer.com"
Infos :
-r : récursif sur le site
-l5 : cinq niveaux de récursion au maximum
-k : convertir les destinations des liens pour une lecture locale
-E : convertir les types de fichier au format HTML (pour éviter que la lecture de sites en PHP ne foire en lecture sous Firefox).
-t : spécifier combien de fois que wget devrait essayer de télécharger chaque fichier.
-w : spécifier combien de temps attendre entre les essais
-c : demander à wget de continuer un téléchargement interrompu.
-T : spécifier au bout de combien de secondes sans réponse wget abandonne une connexion
load-cookies : importer des cookies (pratique pour les sites où vous devriez être authentifié)
-X : exclure un répertoire
La source provient d'ici :)
Attention tout de même, l'aspiration d'un site qui ne vous appartient pas est interdite ;)
Aucun commentaire:
Enregistrer un commentaire