おおよそ、次のようなオプションでdownloadすることで、 localにサイトのクローンを作成できてきます。
最近の世の中には、サイトクロールを行う高機能?なツールも存在すると思いますが、 wgetも十分すぎる程、高機能で、以下の他にも大量のoptionがあります
$ wget --version GNU Wget 1.19.5 built on linux-gnu. $ nohup \ wget --mirror \ = --recursive & --level inf & -–timestamping --page-requisites \ pageが使用する画像,css,jsもdownload --no-clobber \ download済fileを上書きせず、別名で保存 --restrict-file-names=unix \ 日本語file名の文字化け防止 [unix|windows] --convert-links \ localのfileでも閲覧できるよう相対path化 --adjust-extension \ .htmlがない場合の拡張子付与や?パラメータ削除 --random-wait \ --no-parent \ --no-host-directories \ --quiet --show-progress \ tail -f で進捗を眺める際、適度な情報量 --execute robots=off \ www.ないしょ.com &
「--adjust-extension」を使用する場合、wgetの処理完了までの間、 file名が「RGPINH~2」のようなrandomな名称になっている気がします。