LinuxでのcURLとwgetの違い:違いは何ですか?
公開: 2022-07-13 多くのLinuxユーザーに、ファイルのダウンロードに使用するものを尋ねると、 wget
と言う人もいれば、 cURL
と言う人もいます。 違いは何ですか、そして一方が他方よりも優れていますか?
それは接続性から始まりました
政府の研究者は、1960年代までさかのぼって、さまざまなネットワークを相互に接続し始め、相互接続されたネットワークを生み出していました。 しかし、私たちが知っているインターネットの誕生は、TCP/IPプロトコルが実装された1983年1月1日に起こりました。 これは欠落しているリンクでした。 これにより、異種のコンピューターとネットワークが共通の標準を使用して通信できるようになりました。
1991年、CERNは、数年間社内で使用していたWorldWideWebソフトウェアをリリースしました。 このインターネット用のビジュアルオーバーレイへの関心は、即座に広まりました。 1994年の終わりまでに、10,000台のWebサーバーと1,000万人のユーザーがいました。
これらの2つのマイルストーン(インターネットとWeb)は、接続の非常に異なる面を表しています。 しかし、それらは多くの同じ機能も共有しています。
接続性はまさにそれを意味します。 サーバーなどのリモートデバイスに接続しています。 そして、あなたが必要としている、または欲しいものがそこにあるので、あなたはそれに接続しています。 しかし、Linuxコマンドラインから、リモートでホストされているリソースをローカルコンピューターに取得するにはどうすればよいでしょうか。
1996年に、リモートでホストされているリソースをダウンロードできる2つのユーティリティが誕生しました。 1月にリリースされたwget
と12月にリリースされたcURL
です。 どちらもLinuxコマンドラインで動作します。 どちらもリモートサーバーに接続し、両方ともコンテンツを取得します。
しかし、これは、同じ仕事をするために2つ以上のツールを提供するLinuxの通常のケースだけではありません。 これらのユーティリティには、さまざまな目的と専門性があります。 問題は、どちらをいつ使用するかについて混乱を引き起こすほど類似していることです。
2人の外科医を考えてみましょう。 おそらく、眼科医に心臓バイパス手術を行わせたくないでしょうし、心臓外科医に白内障手術を行わせたくないでしょう。 はい、彼らは両方とも高度な技術を持った医療専門家ですが、それは彼らがお互いのドロップイン代替品であることを意味するものではありません。
同じことがwget
とcURL
にも当てはまります。
さまざまな目的、さまざまな機能、いくつかの重複
wget
コマンドの「w」は、その意図された目的を示しています。 その主な目的は、Webページ、またはWebサイト全体をダウンロードすることです。 そのman
ページには、HTTP、HTTPS、およびFTPプロトコルを使用してWebからファイルをダウンロードするユーティリティとして説明されています。
対照的に、 cURL
は、HTTPSだけでなく、SCP、SFTP、SMSBを含む26のプロトコルで動作します。 そのman
ページには、サーバーとの間でデータを転送するためのツールであると記載されています。 特に、Webサイトで動作するように調整されていません。 これは、サポートする多くのインターネットプロトコルのいずれかを使用して、リモートサーバーと対話するためのものです。
したがって、 wget
は主にWebサイト中心ですが、 cURL
は、プレーンバニラインターネットレベルで、より深いレベルで動作するものです。
wget
はWebページを取得でき、Webサーバー上のディレクトリ構造全体を再帰的にナビゲートしてWebサイト全体をダウンロードできます。 また、取得したページのリンクを調整して、リモートWebサーバーの対応するページではなく、ローカルコンピューターのWebページを正しく指すようにすることもできます。
cURL
を使用すると、リモートサーバーと対話できます。 それはファイルをアップロードするだけでなく、それらを取得することができます。 cURL
は、SOCKS4およびSOCKS5プロキシ、およびプロキシへのHTTPSで機能します。 GZIP、BROTLI、およびZSTD形式の圧縮ファイルの自動解凍をサポートします。 cURL
を使用すると、複数の転送を並行してダウンロードすることもできます。
それらの間の重複は、 wget
とcURL
の両方でWebページを取得し、FTPサーバーを使用できることです。
これは大まかな指標にすぎませんが、 man
ページの長さを確認することで、2つのツールの相対的な機能セットをある程度理解することができます。 私たちのテストマシンでは、 wget
のマニュアルページの長さは1433行です。 cURL
のman
ページはなんと5296行です。
wgetのクイックピーク
wget
はGNUプロジェクトの一部であるため、すべてのLinuxディストリビューションにプレインストールされているはずです。 それを使用することは、特にその最も一般的な使用法のために簡単です:ウェブページまたはファイルをダウンロードすること。
WebページまたはリモートファイルへのURLを指定してwget
コマンドを使用するだけです。
wget https://file-examples.com/wp-content/uploads/2017/02/file-sample_100kB.doc
ファイルが取得され、元の名前でコンピュータに保存されます。
ファイルを新しい名前で保存するには、 -O
(出力ドキュメント)オプションを使用します。
wget -O word-file-test.doc https://file-examples.com/wp-content/uploads/2017/02/file-sample_100kB.doc
取得したファイルは、選択した名前で保存されます。
Webサイトを取得するときは、 -O
オプションを使用しないでください。 その場合、取得したすべてのファイルが1つに追加されます。
Webサイト全体を取得するには、 -m
(ミラー)オプションとWebサイトのホームページのURLを使用します。 また、 --page-requisites
を使用して、Webページを適切にレンダリングするために必要なすべてのサポートファイルもダウンロードされるようにする必要があります。 --convert-links
オプションは、取得したファイル内のリンクを調整して、Webサイトの外部の場所ではなく、ローカルコンピューター上の正しい宛先を指すようにします。
関連:究極のコマンドラインダウンロードツールであるwgetの使用方法
cURLのクイックピーク
cURL
は独立したオープンソースプロジェクトです。 Manjaro21とFedora36にプリインストールされていますが、Ubuntu21.04にインストールする必要がありました。
これは、UbuntuにcURLをインストールするためのコマンドです。
sudo apt install curl
wget
で行ったのと同じファイルをダウンロードし、同じ名前で保存するには、このコマンドを使用する必要があります。 -o
(出力)オプションはcURL
では小文字であることに注意してください。
curl -o word-file-test.doc https://file-examples.com/wp-content/uploads/2017/02/file-sample_100kB.doc
ファイルがダウンロードされます。 ダウンロード中にASCIIプログレスバーが表示されます。
FTPサーバーに接続してファイルをダウンロードするには、 -u
(ユーザー)オプションを使用して、次のようにユーザー名とパスワードのペアを指定します。
curl -o test.png -u demo:password ftp://test.rebex.net/pub/example/KeyGenerator.png
これにより、テストFTPサーバーからファイルがダウンロードされて名前が変更されます。
関連: curlを使用してLinuxコマンドラインからファイルをダウンロードする方法
最高はありません
「何をしようとしているの?」と聞かずに「どれを使うべきか」と答えることは不可能です。
wget
とcURL
の機能を理解すると、それらが競合していないことがわかります。 それらは同じ要件を満たしていないため、同じ機能を提供しようとはしていません。
ウェブページやウェブサイトをダウンロードすることは、 wget
の優位性がどこにあるかです。 それがあなたがしていることなら、 wget
を使ってください。 その他の場合(たとえば、アップロード、または他の多数のプロトコルのいずれかを使用する場合)は、 cURL
を使用します。