每天一個 Linux 命令:wget 命令
Linux 系統中的wget
是一個下載文件的工具,它用在命令行下。對於 Linux 用戶是必不可少的工具,我們經常要下載一些軟件或從遠程服務器恢復備份到本地服務器。wget
支持 HTTP,HTTPS 和 FTP 協議,可以使用 HTTP 代理。所謂的自動下載是指,wget
可以在用戶退出系統的之後在後臺執行。這意味這你可以登錄系統,啓動一個 wget
下載任務,然後退出系統,wget
將在後臺執行直到任務完成,相對於其它大部分瀏覽器在下載大量數據時需要用戶一直的參與,這省去了極大的麻煩。
wget
可以跟蹤 HTML 頁面上的鏈接依次下載來創建遠程服務器的本地版本,完全重建原始站點的目錄結構。這又常被稱作” 遞歸下載”。在遞歸下載的時候,wget
遵循 Robot Exclusion 標準 (/robots.txt). wget
可以在下載的同時,將鏈接轉換成指向本地文件,以方便離線瀏覽。
wget
非常穩定,它在帶寬很窄的情況下和不穩定網絡中有很強的適應性。如果是由於網絡的原因下載失敗,wget
會不斷的嘗試,直到整個文件下載完畢。如果是服務器打斷下載過程,它會再次聯到服務器上從停止的地方繼續下載。這對從那些限定了鏈接時間的服務器上下載大文件非常有用。
1.命令格式:
wget [參數] [URL 地址]
2.命令功能:
用於從網絡上下載資源,沒有指定目錄,下載資源回默認爲當前目錄。wget 雖然功能強大,但是使用起來還是比較簡單:
1)支持斷點下傳功能;這一點,也是網絡螞蟻和 FlashGet 當年最大的賣點,現在,Wget 也可以使用此功能,那些網絡不是太好的用戶可以放心了;
2)同時支持 FTP 和 HTTP 下載方式;儘管現在大部分軟件可以使用 HTTP 方式下載,但是,有些時候,仍然需要使用 FTP 方式下載軟件;
3)支持代理服務器;對安全強度很高的系統而言,一般不會將自己的系統直接暴露在互聯網上,所以,支持代理是下載軟件必須有的功能;
4)設置方便簡單;可能,習慣圖形界面的用戶已經不是太習慣命令行了,但是,命令行在設置上其實有更多的優點,最少,鼠標可以少點很多次,也不要擔心是否錯點鼠標;
5)程序小,完全免費;程序小可以考慮不計,因爲現在的硬盤實在太大了;完全免費就不得不考慮了,即使網絡上有很多所謂的免費軟件,但是,這些軟件的廣告卻不是我們喜歡的。
3.命令參數:
啓動參數:
-V, –version 顯示 wget 的版本後退出
-h, –help 打印語法幫助
-b, –background 啓動後轉入後臺執行
-e, –execute=COMMAND 執行
.wgetrc
格式的命令,wgetrc
格式參見 / etc/wgetrc 或~/.wgetrc
記錄和輸入文件參數:
-o, –output-file=FILE 把記錄寫到 FILE 文件中
-a, –append-output=FILE 把記錄追加到 FILE 文件中
-d, –debug 打印調試輸出
-q, –quiet 安靜模式(沒有輸出)
-v, –verbose 冗長模式(這是缺省設置)
-nv, –non-verbose 關掉冗長模式,但不是安靜模式
-i, –input-file=FILE 下載在 FILE 文件中出現的 URLs
-F, –force-html 把輸入文件當作 HTML 格式文件對待
-B, –base=URL 將 URL 作爲在 - F -i 參數指定的文件中出現的相對鏈接的前綴
–sslcertfile=FILE 可選客戶端證書
–sslcertkey=KEYFILE 可選客戶端證書的 KEYFILE
–egd-file=FILE 指定 EGD socket 的文件名
下載參數:
–bind-address=ADDRESS 指定本地使用地址(主機名或 IP,當本地有多個 IP 或名字時使用)
-t, –tries=NUMBER 設定最大嘗試鏈接次數 (0 表示無限制).
-O –output-document=FILE 把文檔寫到 FILE 文件中
-nc, –no-clobber 不要覆蓋存在的文件或使用。# 前綴
-c, –continue 接着下載沒下載完的文件
–progress=TYPE 設定進程條標記
-N, –timestamping 不要重新下載文件除非比本地文件新
-S, –server-response 打印服務器的迴應
–spider 不下載任何東西
-T, –timeout=SECONDS 設定響應超時的秒數
-w, –wait=SECONDS 兩次嘗試之間間隔 SECONDS 秒
–waitretry=SECONDS 在重新鏈接之間等待 1…SECONDS 秒
–random-wait 在下載之間等待 0…2*WAIT 秒
-Y, –proxy=on/off 打開或關閉代理
-Q, –quota=NUMBER 設置下載的容量限制
–limit-rate=RATE 限定下載輸率
目錄參數:
-nd –no-directories 不創建目錄
-x, –force-directories 強制創建目錄
-nH, –no-host-directories 不創建主機目錄
-P, –directory-prefix=PREFIX 將文件保存到目錄 PREFIX/…
–cut-dirs=NUMBER 忽略 NUMBER 層遠程目錄
HTTP 選項參數:
–http-user=USER 設定 HTTP 用戶名爲 USER.
–http-passwd=PASS 設定 http 密碼爲 PASS
-C, –cache=on/off 允許 / 不允許服務器端的數據緩存 (一般情況下允許)
-E, –html-extension 將所有 text/html 文檔以。html 擴展名保存
–ignore-length 忽略
Content-Length
頭域–header=STRING 在 headers 中插入字符串 STRING
–proxy-user=USER 設定代理的用戶名爲 USER
–proxy-passwd=PASS 設定代理的密碼爲 PASS
–referer=URL 在 HTTP 請求中包含
Referer: URL
頭-s, –save-headers 保存 HTTP 頭到文件
-U, –user-agent=AGENT 設定代理的名稱爲 AGENT 而不是 Wget/VERSION
–no-http-keep-alive 關閉 HTTP 活動鏈接 (永遠鏈接)
–cookies=off 不使用 cookies
–load-cookies=FILE 在開始會話前從文件 FILE 中加載 cookie
–save-cookies=FILE 在會話結束後將 cookies 保存到 FILE 文件中
FTP 選項參數:
-nr, –dont-remove-listing 不移走
.listing
文件-g, –glob=on/off 打開或關閉文件名的 globbing 機制
–passive-ftp 使用被動傳輸模式 (缺省值).
–active-ftp 使用主動傳輸模式
–retr-symlinks 在遞歸的時候,將鏈接指向文件(而不是目錄)
遞歸下載參數:
-r, –recursive 遞歸下載--慎用!
-l, –level=NUMBER 最大遞歸深度 (inf 或 0 代表無窮)
–delete-after 在現在完畢後局部刪除文件
-k, –convert-links 轉換非相對鏈接爲相對鏈接
-K, –backup-converted 在轉換文件 X 之前,將之備份爲 X.orig
-m, –mirror 等價於 -r -N -l inf -nr
-p, –page-requisites 下載顯示 HTML 文件的所有圖片
遞歸下載中的包含和不包含 (accept/reject):
-A, –accept=LIST 分號分隔的被接受擴展名的列表
-R, –reject=LIST 分號分隔的不被接受的擴展名的列表
-D, –domains=LIST 分號分隔的被接受域的列表
–exclude-domains=LIST 分號分隔的不被接受的域的列表
–follow-ftp 跟蹤 HTML 文檔中的 FTP 鏈接
–follow-tags=LIST 分號分隔的被跟蹤的 HTML 標籤的列表
-G, –ignore-tags=LIST 分號分隔的被忽略的 HTML 標籤的列表
-H, –span-hosts 當遞歸時轉到外部主機
-L, –relative 僅僅跟蹤相對鏈接
-I, –include-directories=LIST 允許目錄的列表
-X, –exclude-directories=LIST 不被包含目錄的列表
-np, –no-parent 不要追溯到父目錄
wget -S –spider url 不下載只顯示過程
4.使用實例:
實例 1:使用 wget 下載單個文件
命令:
wget http://www.minjieren.com/wordpress-3.1-zh_CN.zip
說明:
以下的例子是從網絡下載一個文件並保存在當前目錄,在下載的過程中會顯示進度條,包含(下載完成百分比,已經下載的字節,當前下載速度,剩餘下載時間)。
實例 2:使用 wget -O 下載並以不同的文件名保存
命令:
wget -O wordpress.zip http://www.minjieren.com/download.aspx?id=1080
說明:
wget 默認會以最後一個符合”/” 的後面的字符來命令,對於動態鏈接的下載通常文件名會不正確。
錯誤:下面的例子會下載一個文件並以名稱 download.aspx?id=1080 保存
wget http://www.minjieren.com/download?id=1
即使下載的文件是 zip 格式,它仍然以 download.php?id=1080 命令。
正確:爲了解決這個問題,我們可以使用參數 - O 來指定一個文件名:
wget -O wordpress.zip http://www.minjieren.com/download.aspx?id=1080
實例 3:使用 wget –limit -rate 限速下載
命令:
wget --limit-rate=300k http://www.minjieren.com/wordpress-3.1-zh_CN.zip
說明:
當你執行 wget 的時候,它默認會佔用全部可能的寬帶下載。但是當你準備下載一個大文件,而你還需要下載其它文件時就有必要限速了。
實例 4:使用 wget -c 斷點續傳
命令:
wget -c http://www.minjieren.com/wordpress-3.1-zh_CN.zip
說明:
使用 wget -c 重新啓動下載中斷的文件,對於我們下載大文件時突然由於網絡等原因中斷非常有幫助,我們可以繼續接着下載而不是重新下載一個文件。需要繼續中斷的下載時可以使用 - c 參數。
實例 5:使用 wget -b 後臺下載
命令:
wget -b http://www.minjieren.com/wordpress-3.1-zh_CN.zip
說明:
對於下載非常大的文件的時候,我們可以使用參數 - b 進行後臺下載。
wget -b http://www.minjieren.com/wordpress-3.1-zh_CN.zip
Continuing in background, pid 1840.
Output will be written to wget-log
.
你可以使用以下命令來察看下載進度:
tail -f wget-log
實例 6:僞裝代理名稱下載
命令:
wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16" http://www.minjieren.com/wordpress-3.1-zh_CN.zip
說明:
有些網站能通過根據判斷代理名稱不是瀏覽器而拒絕你的下載請求。不過你可以通過–user-agent 參數僞裝。
實例 7:使用 wget –spider 測試下載鏈接
命令:
wget --spider URL
說明:
當你打算進行定時下載,你應該在預定時間測試下載鏈接是否有效。我們可以增加–spider 參數進行檢查。
wget --spider URL
如果下載鏈接正確,將會顯示
wget --spider URL
Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
這保證了下載能在預定的時間進行,但當你給錯了一個鏈接,將會顯示如下錯誤
wget --spider url
Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response... 404 Not Found
Remote file does not exist -- broken link!!!
你可以在以下幾種情況下使用 spider 參數:
定時下載之前進行檢查
間隔檢測網站是否可用
檢查網站頁面的死鏈接
實例 8:使用 wget –tries 增加重試次數
命令:
wget --tries=40 URL
說明:
如果網絡有問題或下載一個大文件也有可能失敗。wget 默認重試 20 次連接下載文件。如果需要,你可以使用–tries 增加重試次數。
實例 9:使用 wget -i 下載多個文件
命令:
wget -i filelist.txt
說明:
首先,保存一份下載鏈接文件
cat > filelist.txt
url1
url2
url3
url4
接着使用這個文件和參數 - i 下載
實例 10:使用 wget –mirror 鏡像網站
命令:
wget --mirror -p --convert-links -P ./LOCAL URL
說明:
下載整個網站到本地。
–miror: 開戶鏡像下載
-p: 下載所有爲了 html 頁面顯示正常的文件
–convert-links: 下載後,轉換成本地的鏈接
-P ./LOCAL:保存所有文件和目錄到本地指定目錄
實例 11:使用 wget –reject 過濾指定格式下載
命令:
wget --reject=gif ur
說明:
下載一個網站,但你不希望下載圖片,可以使用以下命令。
實例 12:使用 wget -o 把下載信息存入日誌文件
命令:
wget -o download.log URL
說明:
不希望下載信息直接顯示在終端而是在一個日誌文件,可以使用
實例 13:使用 wget -Q 限制總下載文件大小
命令:
wget -Q5m -i filelist.txt
說明:
當你想要下載的文件超過 5M 而退出下載,你可以使用。注意:這個參數對單個文件下載不起作用,只能遞歸下載時纔有效。
實例 14:使用 wget -r -A 下載指定格式文件
命令:
wget -r -A.pdf url
說明:
可以在以下情況使用該功能:
下載一個網站的所有圖片
下載一個網站的所有視頻
下載一個網站的所有 PDF 文件
實例 15:使用 wget FTP 下載
命令:
wget ftp-url
wget --ftp-user=USERNAME --ftp-password=PASSWORD url
說明:
可以使用 wget 來完成 ftp 鏈接的下載。
使用 wget 匿名 ftp 下載:
wget ftp-url
使用 wget 用戶名和密碼認證的 ftp 下載
wget --ftp-user=USERNAME --ftp-password=PASSWORD url
備註:編譯安裝
使用如下命令編譯安裝:
# tar zxvf wget-1.9.1.tar.gz
# cd wget-1.9.1
# ./configure
# make
# make install
轉自:www.cnblogs.com/peida/archive/2013/03/18/2965369.html
****推薦關注「算法愛好者」,修煉編程內功
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源:https://mp.weixin.qq.com/s/hwnpiQRWFtJECicG8ueKkQ