\r\n\r\n
Wi-Fiはどこでも利用できるようになりましたが、時には利用できないこともあります。そのような時、オフラインの状態でも特定のウェブサイトを保存してアクセスできれば、研究、娯楽、後世のために役立つと思うかもしれません。
オフラインで読むために個々のページを保存するのは簡単ですが、サイト全体をダウンロードしたい場合はどうすればよいのでしょうか?まあ、思っているより簡単ですよここでは、あらゆるウェブサイトをダウンロードしてオフラインで読めるようにするための、4つの便利なツールをご紹介します。
Windowsのみ。
CyotekのWebCopyは、WebサイトのURLを取得し、リンク、ページ、メディアをスキャンします。ページを見つけると、さらにリンク、ページ、メディアを再帰的に探し、サイト全体を探し出す。その後、設定オプションを使用して、オフラインでダウンロードするコンポーネントを決定することができます。
WebCopyの面白いところは、複数の「プロジェクト」を設定し、それぞれに独自の設定や構成を持たせることができる点です。これにより、いつでも簡単に多くのサイトを、毎回同じように再ダウンロードすることができます。
プロジェクトは複数のサイトを複製することができるので、整理された計画を用いる(例:「技術」プロジェクトが技術サイトを複製する)。
コピー完了後、Resultsタブで各ページやメディアファイルのステータスを確認することができます。"エラー "タブには発生した可能性のある問題が表示され、"スキップ "タブにはダウンロードされていないファイルが表示されます。
しかし、最も重要なのは、WebCopyによって発見されたウェブサイトの完全なディレクトリ構造を示すサイトマップである。
オフラインで閲覧する場合は、ファイルエクスプローラを開き、指定した保存フォルダに移動してください。お好みのブラウザでindex.html(場合によってはindex.htm)を開き、ブラウジングを開始します。
Windows、Linux、Androidで利用可能です。
HTTrackは、WebCopyよりも有名で、オープンソースであり、Windows以外のプラットフォームでも動作するため、間違いなく優れていますが、インターフェースが少し不便で、多くの不満が残ります。ただし、機能は充実しているので、それで敬遠することはありません。
WebCopyと同様、プロジェクトベースのアプローチを採用しており、複数のWebサイトをコピーして整理しておくことができます。ダウンロードの一時停止や再開、古いファイルや新しいファイルの再ダウンロードによるコピーサイトの更新も可能です。
ダウンロードが完了したら、ファイルをダウンロードした場所に行き、ブラウザで index.html または index.htm を開けば、通常通りサイトを閲覧することができます。
MacとiOSで利用可能です。
このシンプルなツールは、同じ全体構造を保ちながら、ウェブサイト全体を細断し、関連するすべてのメディアファイル(画像、PDF、スタイルシートなど)も含めます。
クリーンで使いやすいインターフェイスで、ウェブサイトのURLを貼り付けてエンターキーを押すだけという、とてもシンプルな操作性です。
嬉しいのは、ダウンロードしたものをファイルに保存し、そのファイルを使って、将来(あるいは別のマシンで)再び同じファイルや構造をダウンロードすることができる点です。また、この機能により、SiteSuckerはダウンロードの一時停止や再開を行うことができます。
SiteShuckerは5ドルで、無料版や****がないのが最大の欠点です。最新版では、macOS 10.13以上が必要です。旧バージョンのサイトサックは、古いMacシステムで利用可能ですが、一部の機能が欠けている場合があります。
Windows、Mac、Linuxで利用可能です。
Wgetは、HTTPやFTPプロトコルを介して様々なファイルを取得することができるコマンドラインユーティリティです。ウェブサイトはHTTPで提供され、ほとんどのウェブメディアファイルはHTTPまたはFTPでアクセスできるため、Wgetはウェブサイトをリッピングするための優れたツールとなっています。
Wgetは通常、個別のファイルをダウンロードするために使用されますが、最初のページを経由して見つかったすべてのページとファイルを再帰的にダウンロードするために使用することができます。
wget -r -p https://www.makeuseof.comただし、リッピングサイトは非常に帯域幅を必要とするため、一部のウェブサイトでは、実行しようとしているアクションを検知してブロックする場合があります。これを回避するには、ユーザーエージェント文字列を使ってウェブブラウザに偽装する方法があります。
wget -r -p -U Mozilla https://www.makeuseof.comもし礼儀正しくしたいのであれば、****を制限し(ウェブサーバーの帯域幅を使い切らないように)、各ダウンロードの間に間を置く(あまり多くのリクエストでウェブサーバーを圧倒しないように)ことも必要です:.
wget -r -p -U Mozilla --wait=10 --limit-rate=35K https://www.makeuseof.comWgetはほとんどのUnixベースのシステムにバンドルされています。Macでは、brew install Wgetというhomebrewコマンド一つでWgetをインストールできます(how to set up homebrew on a Mac)。Windowsでは、代わりにこのポートを使用する必要があります。
フルサイトをダウンロードする方法がわかったので、インターネットにアクセスできないときでも、読むものがなくて困ることはないでしょう。
ただし、サイトが大きくなればなるほど、ダウンロードも大きくなることを忘れないでください。MakeUseOfのような大きなサイトのダウンロードは、私たちが使用するすべてのメディアファイルを保存するために数千MBが必要になるため、お勧めしません。
ダウンロードに最適なサイトは、テキストが多く画像が多くないもの、定期的に新しいページが追加されたり変更がないものです。静的な情報サイト、オンラインの電子書籍サイト、理想的にはダウンした場合に備えてアーカイブしておきたいサイト。
オフラインで読むためのより多くのオプションに興味がある場合は、オフラインで読むためのGoogleChromeのセットアップ方法を参照してください。長文の記事をダウンロードせずに読む方法は他にもありますので、ぜひ参考にしてください。
画像引用元:RawPixel.com/Shutterstock