Python 爬蟲詳解

作者:潮汐

來源:Python 技術「ID: pythonall」

如果我們把互聯網比作一張大的蜘蛛網,那一臺計算機上的數據便是蜘蛛網上的一個獵物,而爬蟲程序就是一隻小蜘蛛,他們沿着蜘蛛網抓取自己想要的獵物 / 數據。

01 爬蟲的基本流程

02 網頁的請求與響應

網頁的請求和響應方式是 Request 和 Response。

瀏覽器在接收 Response 後,會解析其內容來顯示給用戶,而爬蟲程序在模擬瀏覽器發送請求然後接收 Response 後,是要提取其中的有用數據。

1. 發起請求:Request

請求的發起是使用 http 庫向目標站點發起請求,即發送一個 Request。

Request 對象的作用是與客戶端交互,收集客戶端的 Form、Cookies、超鏈接,或者收集服務器端的環境變量。

Request 對象是從客戶端向服務器發出請求,包括用戶提交的信息以及客戶端的一些信息。客戶端可通過 HTML 表單或在網頁地址後面提供參數的方法提交數據。

然後服務器通過 request 對象的相關方法來獲取這些數據。request 的各種方法主要用來處理客戶端瀏覽器提交的請求中的各項參數和選項。

Request 包含:請求 URL、請求頭、請求體等。

一般做爬蟲都會加上請求頭。

例如:抓取百度網址的數據請求信息如下:

2. 獲取響應內容

爬蟲程序在發送請求後,如果服務器能正常響應,則會得到一個 Response,即響應。

Response 信息包含:html、json、圖片、視頻等,如果沒報錯則能看到網頁的基本信息。例如:一個的獲取網頁響應內容程序如下:

import requests
request_headers={
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
'Cookie': 'BIDUPSID=088AEC1E85F75590978FB3643E131FBA; PSTM=1603682377; BD_UPN=12314753; BDUSS_BFESS=s877ukkvpiduup96naoovu0b94; __yjs_duid=1_04c448abb85383e7fef98fb64b828cce1611538687284; BAIDUID=C6421D51B2DBFF82716EE84B116A4EF8:FG=1; BDSFRCVID_BFESS=rqtOJeC62uF1xmOeQXfguRnVq2hi4t5TH6aINJzxxKt_7w4IsZNSEG0PVf8g0Kubuo1BogKKWeOTHx8F_2uxOjjg8UtVJeC6EG0Ptf8g0f5; H_BDCLCKID_SF_BFESS=tbCH_ItXfCP3JRnYb-Qoq4D_MfOtetJyaR0fKU7vWJ5TEJjz3tuabp_8Lx4H3bQNaHc3Wlvctn3cShPCy-7m-p_z-J6bK6jULNchMhrL3l02VMQae-t2ynLV5HAOW-RMW23U0l7mWPPWsxA45J7cM4IseboJLfT-0bc4KKJxbnLWeIJEjjChDTcyeaLDqbQX2COXsROs2ROOKRcgq4bohjPDynn9BtQmJJrtX4Jtb4oqE4FxQRoChlKJhJAO2JJqQg-q3R5lLt02VlQueq3vBP0Fbfv80x-jLIOOVn0MW-KVo-Jz5tnJyUPibtnnBnkO3H8HL4nv2JcJbM5m3x6qLTKkQN3T-PKO5bRu_CFbtC_hMD-6j6RV-tAjqG-jJTkjt-o2WbCQ-tjM8pcNLTDK5f5L2Mc9Klov5DvtbJrC-CosjDbmjqO1j4_PX46EhnvibN8fLKbY-McFVp5jDh34b6ksD-Rt5JQytmry0hvcQb5cShn9eMjrDRLbXU6BK5vPbNcZ0l8K3l02V-bIe-t2b6Qh-p52f6LjJbC83e; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; H_PS_PSSID=33425_33439_33258_33272_31660_33463_33459_33321_33264; BAIDUID_BFESS=983CAD9571DCC96332320F573A4A81D5:FG=1; delPer=0; BD_CK_SAM=1; PSINO=7; BDRCVFR[tox4WRQ4-Km]=mk3SLVN4HKm; BDRCVFR[-pGxjrCMryR]=mk3SLVN4HKm; BDRCVFR[CLK3Lyfkr9D]=mk3SLVN4HKm; BDRCVFR[dG2JNJb_ajR]=mk3SLVN4HKm; BD_HOME=1; H_PS_645EC=0c49V2LWy0d6V4FbFplBYiy6xyUu88szhVpw2raoJDgdtE3AL0TxHMUUFPM; BA_HECTOR=0l05812h21248584dc1g38qhn0r; COOKIE_SESSION=1_0_8_3_3_9_0_0_7_3_0_1_5365_0_3_0_1614047800_0_1614047797%7C9%23418111_17_1611988660%7C5; BDSVRTM=1',
'Host':'www.baidu.com',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36'}

response = requests.get('https://www.baidu.com/s',params={'wd':'帥哥'},headers=request_headers) #params內部就是調用urlencode
print(response.text)

以上內容輸出的就是網頁的基本信息,它包含 html、json、圖片、視頻等,如下圖所示:

Response 響應後會返回一些響應信息,例下:

1)響應狀態

2)Respone header

3)preview 是網頁源代碼

最主要的部分,包含了請求資源的內容,如網頁 html、圖片、二進制數據等

4)解析內容

5)保存數據

爬取的數據以文件的形式保存在本地或者直接將抓取的內容保存在數據庫中,數據庫可以是 MySQL、Mongdb、Redis、Oracle 等……

03 寫在最後

爬蟲的總流程可以理解爲:蜘蛛要抓某個獵物 --> 沿着蛛絲找到獵物 --> 喫到獵物;即爬取 --> 解析 --> 存儲。

在爬取數據過程中所需參考工具如下:

04 總結

今天的文章是對爬蟲的原理做一個詳解,希望對大家有幫助,同時也在後面的工作中奠定基礎!

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/3s-mzNM53EaKjAEWhkETEg