サイト全体をダウンロードするにはどうすればいいですか?

download web website

ウェブサイトから全ページをダウンロードするにはどうすればいいですか?

どんなプラットフォームでも構いません

  384  community wiki  None


ベストアンサー

HTTRACKは、サイト全体のコンテンツをコピーするためのチャンプのように動作します。このツールは、アクティブなコードコンテンツを持つウェブサイトをオフラインで動作させるために必要な部分を取得することもできます。私はそれがオフラインで複製できるものに驚いています

このプログラムは、あなたがそれを必要とするすべてを行います

Happy hunting!

361  community wiki  2013-10-23


Wget は、この種のタスクのための古典的なコマンドラインツールです。ほとんどの Unix/Linux システムに付属しており、Windows 用も入手できます。Mac では、Homebrew が最も簡単なインストール方法です (brew install wget)

みたいなことをするでしょう

wget -r --no-parent http://site.com/songs/

詳細については、Wget マニュアルとその 、またはこれらを参照してください

297  community wiki  2017-03-20


Use wget:

wget -m -p -E -k www.example.com

オプションの説明をしました

-m, --mirror            Turns on recursion and time-stamping, sets infinite
recursion depth, and keeps FTP directory listings.
-p, --page-requisites   Get all images, etc. needed to display HTML page.
-E, --adjust-extension  Save HTML/CSS files with .html/.css extensions.
-k, --convert-links     Make links in downloaded HTML point to local files.
-np, --no-parent        Don't ascend to the parent directory when retrieving
recursively. This guarantees that only the files below
a certain hierarchy will be downloaded. Requires a slash
at the end of the directory, e.g. example.com/foo/.

172  community wiki  2020-07-08


Firefox の拡張機能である ScrapBook を見てみましょう。これは、詳細なキャプチャモードを持っています

enter image description here

8  community wiki  2011-08-16


インターネットダウンロードマネージャは、多くのオプションを持つサイトグラバーユーティリティを持っています – これは、完全にあなたがそれをしたい方法で、あなたが望む任意のウェブサイトをダウンロードすることができます

  1. ダウンロードするページ/ファイルのサイズの制限を設定することができます

  2. 訪問する支店の数を設定することができます

  3. スクリプト/ポップアップ/複製の動作を変更することができます

  4. ドメインを指定することができ、そのドメインの下でのみ、必要な設定を満たすすべてのページ/ファイルがダウンロードされます

  5. リンク先をオフラインリンクに変換して閲覧することができます

  6. 上記の設定を自分で選択できるテンプレートがあります

enter image description here

ソフトウェアは無料ではありませんが、 – それがあなたのニーズに合っているかどうかを確認し、評価版を使用してください

8  community wiki  2011-08-16


私はOffline Explorerが好きです。 シェアウェアですが、とても良くて使いやすいです

7  community wiki  2009-09-17


itsucks – それがプログラムの名前だ!

7  community wiki  2011-08-23


ブラウザが使用しているオンラインバッファリングを取り上げる

一般的にほとんどのブラウザは、ウェブサイトからダウンロードしたファイルを少しの間保持するためにブラウジングキャッシュを使用しており、静的な画像やコンテンツを何度も何度もダウンロードする必要はありません。これにより、状況によってはかなりのスピードアップが期待できます。一般的に、ほとんどのブラウザのキャッシュは一定のサイズに制限されており、そのサイズに達するとキャッシュ内の最も古いファイルが削除されます

ISPは、ESPNやCNNのような一般的にアクセスされるウェブサイトのコピーを保持するキャッシングサーバを持っている傾向があります。これにより、ネットワーク上の誰かがそこにアクセスするたびに、これらのサイトにアクセスする手間を省くことができます。これにより、外部サイトへの重複リクエストの量を大幅に削減することができます

5  community wiki  2009-07-28


Teleport Pro は、ターゲットが何であれ、あらゆるファイルをコピーダウンしてくれる無料のソリューションです(有料版もあるので、コンテンツのページ数を増やすことができます)

4  community wiki  2013-10-23


WebZipも良い商品です

4  community wiki  2013-10-23


久しぶりにやってみましたが、まだまだユーティリティは出回っています。Web Snakeを試してみるといいかもしれません。数年前に使ったことがあると思います。質問を読んですぐに名前を思い出しました

私はStecyに同意します。彼らのサイトを叩かないでください。非常に悪い

4  community wiki  2013-10-23


BackStreet Browser を試してみてください

無料で使える強力なオフラインブラウザです。高速でマルチスレッドなウェブサイトのダウンロードと閲覧プログラムです。複数のサーバーへの同時リクエストを行うことで、BackStreet Browserは、HTML、グラフィック、Javaアプレット、サウンド、その他のユーザー定義可能なファイルを含むウェブサイト全体またはサイトの一部を素早くダウンロードし、すべてのファイルをネイティブ形式または圧縮ZIPファイルとしてハードドライブに保存し、オフラインで閲覧することができます

enter image description here

3  community wiki  2011-08-16


DownThemAllは、特定のウェブページのすべてのコンテンツ(オーディオファイルやビデオファイルなど)をワンクリックでダウンロードするFirefoxアドオンです。これはサイト全体をダウンロードするわけではありませんが、これは質問者が探していたものの一種かもしれません

3  community wiki  2015-06-13


LinuxとOS X用。ウェブサイト全体を grab-site ファイルにアーカイブするための WARC を書きました。これらのWARCファイルは、ブラウジングまたは抽出することができます。 grab-siteは、正規表現を使用してスキップするURLを制御することができます。また、ジャンクURLを無視するための広範なデフォルトのセットが付属しています

クロールを監視するためのウェブ ダッシュボードがあり、一定のサイズ以上の動画コンテンツやレスポンスをスキップするための追加オプションも用意されています

3  community wiki  2016-05-27


パワーwget

wget はすでに言及されていますが、このリソースとコマンドラインは非常にシームレスで、言及に値すると思いました。wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/

このコードは explainshell で説明されています

3  community wiki  2017-11-03


由緒あるFreeDownloadManager.orgにもこの機能があります

無料ダウンロードマネージャーは、2つの形で2つの形でそれを持っています。サイトエクスプローラーとサイトスパイダー

サイトエクスプローラ サイトエクスプローラは、ウェブサイトのフォルダ構造を表示し、必要なファイルやフォルダを簡単にダウンロードすることができます。 HTML Spider HTML Spiderを使えば、ウェブページ全体、あるいはウェブサイト全体をダウンロードすることができます。このツールは、指定された拡張子のファイルのみをダウンロードするように調整することができます

サイトエクスプローラーは、サイト全体をダウンロードしようとする前に、どのフォルダを含めるか/除外するかを確認するのに便利だと思います – 特に、ダウンロードしたくないサイト内に隠れているフォーラム全体がある場合など

0  community wiki  2020-06-12


ページの保存 WE

ウェブページのコンテンツのほとんど/すべてをダウンロードし、.htmlファイルに直接保存するChromeとFirefoxの両方に対応した優れた拡張機能

Google Chrome 拡張機能

Firefox 拡張機能

試してみたピクチャーギャラリーのページでは、サムネイルは保存されるが、フル画像は保存されないことに気づいた。というか、サムネイルのフル画像を開くためのJavaScriptが効いていないだけかもしれません

しかし、それはwget、PDFなどよりも優れていました。ほとんどの人のニーズに対応した素晴らしいシンプルなソリューション

0  community wiki  2019-10-14


あなたは、そのURLに含まれるすべてのコンテンツのzipファイルを作成します以下の無料のオンラインツールを使用することができます

0  community wiki  2019-11-11


Cyotek WebCopyも良い選択肢のようです。私の状況については、DokuWikiサイトをダウンロードしようとすると、それは現在、CSRF/SecurityTokenのサポートを欠いているようです。私が実際にオフラインエクスプローラに行った理由は、上記の回答ですでに述べたように、それが理由です

0  community wiki  2020-10-06


HTTrackerをダウンロードすると、次の非常に簡単な手順でウェブサイトをダウンロードします

ダウンロードリンク:http://www.httrack.com/page/2/

あなたを助けるかもしれないビデオ :https://www.youtube.com/watch?v=7IHIGf6lcL4

-1  community wiki  2015-09-21


Firefoxはネイティブでできます(少なくともFF42ではできます)。ただ、”ページを保存 “を使って

enter image description here

-3  community wiki  2015-12-02


私はgoogle chromeがデスクトップデバイス上でこれを行うことができると信じて、ちょうどブラウザのメニューに移動し、Webページを保存をクリックします

また、ポケットのようなサービスは、実際にウェブサイトを保存しないことがあり、したがって、リンクの腐敗の影響を受けやすいことに注意してください

最後に、ウェブサイトのコンテンツをコピーすることは、それが適用される場合には、著作権を侵害する可能性があることに注意してください

-4  community wiki  2015-05-16


タイトルとURLをコピーしました