Python爬蟲之谷歌Chrome F12如何抓包分析?案例詳解


Python爬蟲之谷歌Chrome F12如何抓包分析?案例詳解

  • 瀏覽器打開網頁的過程就是爬蟲獲取數據的過程,兩者是一樣一樣的。瀏覽器渲染的網頁是豐富多彩的數據集合,而爬蟲得到的是網頁的源代碼htm有時候,我們不能在網頁的html代碼裡面找到想要的數據,但是瀏覽器打開的網頁上面卻有這些數據。這就是瀏覽器通過ajax技術異步加載(偷偷下載)了這些數據。

大家禁不住要問:那麼該如何看到瀏覽器偷偷下載的那些數據呢?

答案就是谷歌Chrome瀏覽器的F12快捷鍵,也可以通過鼠標右鍵菜單“檢查”(Inspect)打開Chrome自帶的開發者工具,開發者工具會出現在瀏覽器網頁的左側或者是下面(可調整),它的樣子就是這樣的:

Python爬蟲之谷歌Chrome F12如何抓包分析?案例詳解

讓我們簡單瞭解一下它如何使用:

谷歌Chrome抓包:1. 最上面一行菜單

左上角箭頭 用來點擊查看網頁的元素

第二個手機、平板圖標是用來模擬移動端顯示網頁

Elements 查看渲染後的網頁標籤元素

提醒 是渲染後(包括異步加載的圖片、數據等)的完整網頁的html,不是最初下載的那個html。

Console 查看JavaScript的console log信息,寫網頁時比較有用

Sources 顯示網頁源碼、CSS、JavaScript代碼

Network 查看所有加載的請求,對爬蟲很有幫助

後面的暫且不管。

谷歌Chrome抓包:2. 重要區域

圖中紅框的兩個按鈕比較有用,編號為2的是清空請求記錄;編號3的是保持記錄,這在網頁有重定向的時候很有用

圖中綠色區域就是加載完整個網頁,瀏覽器的全部請求記錄,包括網址、狀態、類型等。寫爬蟲時,我們就要在這裡尋找線索,提煉金礦。

最下面編號為4的紅框顯示了加載這個網頁,一共請求了181次,數量是多麼地驚人,讓人不禁心疼起瀏覽器來。

點擊一條請求的網址,右側就會出現新的窗口顯示該條請求的相信信息:

Python爬蟲之谷歌Chrome F12如何抓包分析?案例詳解

圖中左邊紅框就是點擊的請求網址;綠框就是詳情窗口。

詳情窗口包括,Headers(請求頭)、Preview(預覽響應)、Response(服務器響應內容)和Timing(耗時)。

Preview、Response 幫助我們查看該條請求是不是有爬蟲想要的數據;

Headers幫助我們在爬蟲中重建http請求,以便爬蟲得到和瀏覽器一樣的數據。

瞭解和熟練使用Chrome的開發者工具,大家就如虎添翼可以順利寫出自己的爬蟲啦。
最後注意:光理論是不夠的。這裡順便免費送大家一套2020最新python入門到高級項目實戰視頻教程,想學的可以關注我,後臺私信我 ‘py’ 自動獲取!還有老司機解答哦!

本文的文字及圖片來源於網絡加上自己的想法,僅供學習、交流使用,不具有任何商業用途,版權歸原作者所有,如有問題請及時聯繫我們以作處理。


分享到:


相關文章: