Qui connait un bon outils pour "aspirer" un site web ou une partie d'un site ?
Tu peux utiliser en ligne de commande wget
wget -r -l5 -k -E "http://www.tonsite.com"
-r : récursif sur le site
-l5 : cinq niveaux de récursion au maximum
-k : convertir les destinations des liens pour une lecture locale
-E : convertir les types de fichier au format HTML

Cependant, l'aspiration de sites doit respecter une certaine éthique et doit être utilisée uniquement lorsqu'il y a un besoin d'accéder à certains contenus hors lignes...
djjudge wrote:Tu peux utiliser en ligne de commande wget
wget -r -l5 -k -E "http://www.tonsite.com"
-r : récursif sur le site
-l5 : cinq niveaux de récursion au maximum
-k : convertir les destinations des liens pour une lecture locale
-E : convertir les types de fichier au format HTML

Cependant, l'aspiration de sites doit respecter une certaine éthique et doit être utilisée uniquement lorsqu'il y a un besoin d'accéder à certains contenus hors lignes...
Putain. J'ai beau être ici depuis 3 ans, à chaque fois que je vois ça, ça me tue.
Une ligne pour aspirer tout un site.
Sous Windows, il aurait fallu un logiciel de 40 Mo.
Et tout ça avec un "pauvre" wget.

Linux, c'est un peu la corne d'abondance de la commande magique...