ウェブサイトから全ページをダウンロードするにはどうすればいいですか?
どんなプラットフォームでも構いません
384 community wiki None
HTTRACKは、サイト全体のコンテンツをコピーするためのチャンプのように動作します。このツールは、アクティブなコードコンテンツを持つウェブサイトをオフラインで動作させるために必要な部分を取得することもできます。私はそれがオフラインで複製できるものに驚いています
このプログラムは、あなたがそれを必要とするすべてを行います
Happy hunting!
361 community wiki 2013-10-23
Wget は、この種のタスクのための古典的なコマンドラインツールです。ほとんどの Unix/Linux システムに付属しており、Windows 用も入手できます。Mac では、Homebrew が最も簡単なインストール方法です (brew install wget
)
みたいなことをするでしょう
wget -r --no-parent http://site.com/songs/
詳細については、Wget マニュアルとその 例、またはこれらを参照してください
297 community wiki 2017-03-20
Use wget:
wget -m -p -E -k www.example.com
オプションの説明をしました
-m, --mirror Turns on recursion and time-stamping, sets infinite
recursion depth, and keeps FTP directory listings.
-p, --page-requisites Get all images, etc. needed to display HTML page.
-E, --adjust-extension Save HTML/CSS files with .html/.css extensions.
-k, --convert-links Make links in downloaded HTML point to local files.
-np, --no-parent Don't ascend to the parent directory when retrieving
recursively. This guarantees that only the files below
a certain hierarchy will be downloaded. Requires a slash
at the end of the directory, e.g. example.com/foo/.
172 community wiki 2020-07-08
Firefox の拡張機能である ScrapBook を見てみましょう。これは、詳細なキャプチャモードを持っています
8 community wiki 2011-08-16
インターネットダウンロードマネージャは、多くのオプションを持つサイトグラバーユーティリティを持っています – これは、完全にあなたがそれをしたい方法で、あなたが望む任意のウェブサイトをダウンロードすることができます
ダウンロードするページ/ファイルのサイズの制限を設定することができます
訪問する支店の数を設定することができます
スクリプト/ポップアップ/複製の動作を変更することができます
ドメインを指定することができ、そのドメインの下でのみ、必要な設定を満たすすべてのページ/ファイルがダウンロードされます
リンク先をオフラインリンクに変換して閲覧することができます
上記の設定を自分で選択できるテンプレートがあります
ソフトウェアは無料ではありませんが、 – それがあなたのニーズに合っているかどうかを確認し、評価版を使用してください
8 community wiki 2011-08-16
私はOffline Explorerが好きです。 シェアウェアですが、とても良くて使いやすいです
7 community wiki 2009-09-17
itsucks – それがプログラムの名前だ!
7 community wiki 2011-08-23
ブラウザが使用しているオンラインバッファリングを取り上げる
一般的にほとんどのブラウザは、ウェブサイトからダウンロードしたファイルを少しの間保持するためにブラウジングキャッシュを使用しており、静的な画像やコンテンツを何度も何度もダウンロードする必要はありません。これにより、状況によってはかなりのスピードアップが期待できます。一般的に、ほとんどのブラウザのキャッシュは一定のサイズに制限されており、そのサイズに達するとキャッシュ内の最も古いファイルが削除されます
ISPは、ESPNやCNNのような一般的にアクセスされるウェブサイトのコピーを保持するキャッシングサーバを持っている傾向があります。これにより、ネットワーク上の誰かがそこにアクセスするたびに、これらのサイトにアクセスする手間を省くことができます。これにより、外部サイトへの重複リクエストの量を大幅に削減することができます
5 community wiki 2009-07-28
Teleport Pro は、ターゲットが何であれ、あらゆるファイルをコピーダウンしてくれる無料のソリューションです(有料版もあるので、コンテンツのページ数を増やすことができます)
4 community wiki 2013-10-23
WebZipも良い商品です
4 community wiki 2013-10-23
久しぶりにやってみましたが、まだまだユーティリティは出回っています。Web Snakeを試してみるといいかもしれません。数年前に使ったことがあると思います。質問を読んですぐに名前を思い出しました
私はStecyに同意します。彼らのサイトを叩かないでください。非常に悪い
4 community wiki 2013-10-23
BackStreet Browser を試してみてください
無料で使える強力なオフラインブラウザです。高速でマルチスレッドなウェブサイトのダウンロードと閲覧プログラムです。複数のサーバーへの同時リクエストを行うことで、BackStreet Browserは、HTML、グラフィック、Javaアプレット、サウンド、その他のユーザー定義可能なファイルを含むウェブサイト全体またはサイトの一部を素早くダウンロードし、すべてのファイルをネイティブ形式または圧縮ZIPファイルとしてハードドライブに保存し、オフラインで閲覧することができます
3 community wiki 2011-08-16
DownThemAllは、特定のウェブページのすべてのコンテンツ(オーディオファイルやビデオファイルなど)をワンクリックでダウンロードするFirefoxアドオンです。これはサイト全体をダウンロードするわけではありませんが、これは質問者が探していたものの一種かもしれません
3 community wiki 2015-06-13
LinuxとOS X用。ウェブサイト全体を grab-site ファイルにアーカイブするための WARC を書きました。これらのWARCファイルは、ブラウジングまたは抽出することができます。 grab-siteは、正規表現を使用してスキップするURLを制御することができます。また、ジャンクURLを無視するための広範なデフォルトのセットが付属しています
クロールを監視するためのウェブ ダッシュボードがあり、一定のサイズ以上の動画コンテンツやレスポンスをスキップするための追加オプションも用意されています
3 community wiki 2016-05-27
パワーwget
wget はすでに言及されていますが、このリソースとコマンドラインは非常にシームレスで、言及に値すると思いました。wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
3 community wiki 2017-11-03
由緒あるFreeDownloadManager.orgにもこの機能があります
無料ダウンロードマネージャーは、2つの形で2つの形でそれを持っています。サイトエクスプローラーとサイトスパイダー
サイトエクスプローラ サイトエクスプローラは、ウェブサイトのフォルダ構造を表示し、必要なファイルやフォルダを簡単にダウンロードすることができます。 HTML Spider HTML Spiderを使えば、ウェブページ全体、あるいはウェブサイト全体をダウンロードすることができます。このツールは、指定された拡張子のファイルのみをダウンロードするように調整することができます
サイトエクスプローラーは、サイト全体をダウンロードしようとする前に、どのフォルダを含めるか/除外するかを確認するのに便利だと思います – 特に、ダウンロードしたくないサイト内に隠れているフォーラム全体がある場合など
0 community wiki 2020-06-12
ページの保存 WE
ウェブページのコンテンツのほとんど/すべてをダウンロードし、.html
ファイルに直接保存するChromeとFirefoxの両方に対応した優れた拡張機能
Firefox 拡張機能
試してみたピクチャーギャラリーのページでは、サムネイルは保存されるが、フル画像は保存されないことに気づいた。というか、サムネイルのフル画像を開くためのJavaScriptが効いていないだけかもしれません
しかし、それはwget、PDFなどよりも優れていました。ほとんどの人のニーズに対応した素晴らしいシンプルなソリューション
0 community wiki 2019-10-14
あなたは、そのURLに含まれるすべてのコンテンツのzipファイルを作成します以下の無料のオンラインツールを使用することができます
0 community wiki 2019-11-11
Cyotek WebCopyも良い選択肢のようです。私の状況については、DokuWikiサイトをダウンロードしようとすると、それは現在、CSRF/SecurityTokenのサポートを欠いているようです。私が実際にオフラインエクスプローラに行った理由は、上記の回答ですでに述べたように、それが理由です
0 community wiki 2020-10-06
HTTrackerをダウンロードすると、次の非常に簡単な手順でウェブサイトをダウンロードします
ダウンロードリンク:http://www.httrack.com/page/2/
あなたを助けるかもしれないビデオ :https://www.youtube.com/watch?v=7IHIGf6lcL4
-1 community wiki 2015-09-21
Firefoxはネイティブでできます(少なくともFF42ではできます)。ただ、”ページを保存 “を使って
-3 community wiki 2015-12-02
私はgoogle chromeがデスクトップデバイス上でこれを行うことができると信じて、ちょうどブラウザのメニューに移動し、Webページを保存をクリックします
また、ポケットのようなサービスは、実際にウェブサイトを保存しないことがあり、したがって、リンクの腐敗の影響を受けやすいことに注意してください
最後に、ウェブサイトのコンテンツをコピーすることは、それが適用される場合には、著作権を侵害する可能性があることに注意してください
-4 community wiki 2015-05-16