最近老師聽到說知乎上有很多漂亮小姐姐,我很奇怪,知乎不是問答社區嗎?難道還有啥隱藏,年薪沒百萬進不去?畢竟人均985,年薪百萬的知乎。
原問題請看這
https://www.zhihu.com/question/34243513/answer/110939108 你見過的漂亮女生長什麼樣?
友情提醒,文末可以欣賞部分仙女姐姐,不過不要猴急,大家是來學習的,咳咳,我也是。
不誇張的說,我看到了很多仙女,不知道大家覺得咋樣,既然看到了豈有放過的道理,嘿嘿嘿!!
咳咳,圓規自轉,我只是為了精進爬蟲技術,小編本身也是個程序猿,所以打算利用python寫個爬蟲,把它們都爬下來,不說了要喝營養快線了。
代碼分享
註釋已經非常詳細了
<code># coding=utf-8
import urllib2
from bs4 import BeautifulSoup
import os
import re
import datetime
nowTime=datetime.datetime.now().strftime('%Y%m%d%H%M%S')#為了防止圖片重名被覆蓋,給圖片加上時間戳
url = "hhttps://www.zhihu.com/question/34243513/answer/110939108" # 指定的URL
def download(_url, name): # 下載函數
if (_url == None): # 地址若為None則跳過
pass
result = urllib2.urlopen(_url) # 打開鏈接
# print result.getcode()
if (result.getcode() != 200): # 如果鏈接不正常,則跳過這個鏈接
pass
else:
data = result.read() # 否則開始下載到本地
with open(name, "wb") as code:
code.write(data)
code.close()
res = urllib2.urlopen(url) # 打開目標地址
respond = res.read() # 獲取網頁地址源代碼
count =0 # 計數君
soup = BeautifulSoup(respond,"html.parser") # 實例化一個BeautifulSoup對象
lst = [] # 創建list對象
for link in soup.find_all("img"): # 獲取標籤為img的內容
address = link.get('data-original') # 獲取標籤屬性為data-original的內容,即圖片地址
lst.append(address) # 添加到list中
s = set(lst) # 去重
for address in s:
if (address != None):
pathName = "/Users/zhoupeng/Downloads/" + str(count+1) +nowTime+ ".jpg" # 設置路徑和文件名
download(address, pathName) # 下載
count = count + 1 # 計數君+1
print "正在下載第:", count, "張圖片,請耐心等待啊!"
print "------全部圖片已經下載完畢--------"/<code>
圖片欣賞
最後小編幫助大家整理了一套python教程,下面展示了部分,希望也能幫助對編程感興趣,想做數據分析,人工智能、爬蟲或者希望從事編程開發的小夥伴,畢竟python工資也還可以,如果能幫到你請點贊、點贊、點贊。
python視頻系列
電子書系列:
點贊才有哦,舉手之勞,非常感謝,你在哪裡見過哪些漂亮女生,漂亮到什麼程度?歡迎留言討論。
閱讀更多 程序猿老旭 的文章