wget vs curl

普段はダウンローダiGetterというMac OS X用のソフトを使っているのですが(シェアウェアですが、とても便利だし高速ダウンロードは快適ですよ)、たまにスクリプトを使ってダウンロードをしたくなることがあります。そんなときはcurlを使っていました。今日になってあるウェブサイトの全保存(ミラーリング)をやりたくなったのですが、curlだとその機能が付いてないのです。ハードディスクに入ってたソフトでサイト全保存ができそうなのはInternet Explorerくらい。しかも独自フォーマットにしてくれるのであとで変換しないといけないですし、ディレクトリ巡回も上流・下流の区別がつけられないのです。そこでwgetを使ってみることにしました。curlのほうがなんとなく評判が良さそうだったので使っていたんですが、wgetもなかなかです。サイトのミラーリングをするには

wget -r -nc --no-parent -l 0 http://www.hoge.com/foobar/
のようにやります。ちゃんと礼儀正しくrobots.txt規則を守るソフトです。