Scaricare un Sito dal Terminale


Quanti siti troviamo! Qualche volta però ci piò essere utile scaricare un intero sito per poterlo visualizzare offline.

A prescindere dal motivo, vediamo come possiamo fare per scaricarlo, da linux, senza installare programmi aggiuntivi. Sicuramente vi sarà capitato di usarlo, per esempio nello scaricare pacchetti, ma non sapevate che serve anche per creare copie in locale di interi siti web.
Stò parlando di wget.Supponiamo che vogliate scaricare un intero sito, per esempio la pagina della Nikon D3s.Per farlo basta aprire il terminale ed eseguire i seguenti comandi:

wget \
–recursive \
–no-clobber \
–page-requisites \
–html-extension \
–convert-links \
–restrict-file-names=windows \
–domains it.wikipedia.org \
–no-parent \
it.wikipedia.org/wiki/Nikon_D3s

Le opzioni che passiamo al comando wget ci permettono di scaricare correttamente un sito web. Vediamone il significato:

  • recursive: in maniera ricorsiva scandaglia tutte le pagine e ci permette di scaricare il sito web per intero.
  • domains: it.wikipedia.org: fa in modo tale che non vengano seguiti i link esterni al dominio impostato
  • no-parent: non segue le pagine di livello superiore rispetto alla directory che abbiamo impostato, nel nostro caso /wiki/Nikon_D3s
  • page-requisites: serve per prelevare tutti gli elementi che compongono la pagina (immagini, CSS e così via).
  • html-extension: semplicemente salva i file con estensione .html.
  • convert-links: converte i link con quelli locali in modo tale da poter permettere la navigazione offline.
  • restrict-file-names=windows: utile se dobbiamo passare il sito ad un amico con windows, perchè automaticamente modifica i nomi dei file per renderli compatibili anche con Windows.
  • no-clobber: non sovrascrive file esistenti, utile se il sito che scarichiamo è particolarmente grande ed è utile riprenderlo senza ricominciare daccapo.

Lascia un Commento!