樹莓派+python+OpenCV等打造智能家居遠程監控系統

前言

前幾天,在食堂吃飯,本來每天中午的新聞三十分換成了視頻監控。我們已經習慣了,前十分鐘看著領導都很忙,中間十分鐘中國人民都很幸福,後十分鐘別的國家都生活在水深火熱裡,順便跟同事談談國家大事。突然主角換成了我們自己,便毫無抬頭的慾望。

恰巧最近也有在接觸大屏監控的解決方案,於是乎,就索性拿樹莓派實驗了一把,做一個智能監控系統。

軟硬件清單

讀卡器以及 SD 卡(裝系統用)攝像頭一枚,支持 USBSSH連接工具(SecureCRT,Xshell)寬帶、路由器(家中常備)裝好系統的樹莓派 3B+ 一隻(充電器、CPU散熱風扇等)

在開始之前照常先秀一下這半成品的監控系統,是不是醜到爆!?

監控系統

市面上有很多開源的攝像頭管理軟件,比如 motion、mjpg-streamer,當然我們也可以用 Python 自己實現更智能的監控系統。

下面,我們分別來介紹以上三種方案。

motion

安裝:

sudo apt-get install motion

打開 motion daemon 守護進程,讓他可以一直在後臺運行

sudo vim /etc/default/motion#no修改成yes:start_motion_daemon=yes

修改 motion 的配置文件:

sudo vim /etc/motion/motion.conf#deamon off 改成 ondeamon on#設置分辨率width 800height 600#關閉 localhost 的限制stream_localhost off

運行 motion:

sudo motion

停止 motion:

killall motion 或者 service motion stop

現在我們的攝像頭已經變成了一臺網絡攝像頭。在chrome瀏覽器下訪問 http://:8081 即可看到攝像頭當前拍攝的畫面。

不得不說,真的很耗CPU,差不多持續在60%左右,並且有一定的延遲,卡頓特別嚴重。

mjpg-streamer

先安裝依賴:

sudo apt-get install libjpeg8-dev cmake

下載 mjpg-streamer-master 軟件:

wget http://github.com/jacksonliam/mjpg-streamer/archive/master.zipunzip master.zipcd mjpg-streamer-master/mjpg-streamer-experimental# 編輯配置文件vim plugins/input_raspicam/input_raspicam.c

進去之後搜索fps,也就是按一下/鍵,然後輸入fps,然後回車將fps、高度、寬度修改,參考下圖:

然後退出到mjpg-streamer-master/mjpg-streamer-experimental路徑,編譯:

sudo make clean all

啟動攝像頭:

//啟動普通 USB攝像頭./mjpg_streamer -i "./input_uvc.so" -o "./output_http.so -w ./www" //啟動樹莓派專用攝像頭./mjpg_streamer -i "./input_raspicam.so" -o "./output_http.so -w ./www"//openwrt下啟動,8090端口mjpg_streamer -i "input_uvc.so -f 10 -r 320*240" -o "output_http.so -p 8090 -w www"

如果出現以下錯誤:

多插拔幾次攝像頭興許就可以了。

多參數啟動:

sudo mjpg_streamer -i "./input_uvc.so -r 640x480 -f 10 -n" -o "./output_http.so -p 8080 --w ./www"

密碼訪問

# userid:password 改成自己的就可以sudo mjpg_streamer -i "./input_uvc.so -r 640x480 -f 10 -n" -o "./output_http.so -p 8080 --w ./www -c userid:password"

在瀏覽器中打開,外網自備穿透:

http://:8080http://:8080/?action=stream

最終畫面:

這個就流暢多了,CPU差不多也佔到五六十的樣子,不過無礙,畢竟是4核。

Python 實現

上面兩種方式只能做到瀏覽器監控訪問,非局域網還得搭個穿透才能訪問,看似華麗,其實並沒有實際卵用。

為了更加智能的實現監控告警,下面我們採用Python +OpenCV+Wechat 實現。

安裝 OpenCV

安裝基礎組件:

sudo apt-get updatesudo apt-get install libjpeg-dev libatlas-base-dev libjpeg-dev libtiff5-dev libpng12-dev libqtgui4 libqt4-test libjasper-dev

然後安裝 OpenCV:

sudo pip3 install opencv-python

一般情況,你是不可能安裝成功的,99.999% 會出現以下錯誤:

Collecting opencv-python Downloading https://www.piwheels.org/simple/opencv-python/opencv_python-3.4.4.19-cp35-cp35m-linux_armv7l.whl (7.4MB) 45% |██████████████▍ | 3.3MB 15kB/s eta 0:04:20THESE PACKAGES DO NOT MATCH THE HASHES FROM THE REQUIREMENTS FILE. If you have updated the package versions, please update the hashes. Otherwise, examine the package contents carefully; someone may have tampered with them. opencv-python from https://www.piwheels.org/simple/opencv-python/opencv_python-3.4.4.19-cp35-cp35m-linux_armv7l.whl#sha256=329d9d9fdd62b93d44a485aeaab4602c6f5b8555ea8bcc7dbcdc62c90cfe2c3f: Expected sha256 329d9d9fdd62b93d44a485aeaab4602c6f5b8555ea8bcc7dbcdc62c90cfe2c3f Got 869c7994c40b84ac09f244f768db9269d52d3265d376441e8516a47f24711ef2

這可能是由於網速太慢了,沒有下載完整的文件,所以不完整的文件的md5和期望的不一樣。

我們首先下載 whl 文件到本地:

# 瀏覽器直接訪問就可以https://www.piwheels.org/simple/opencv-python/opencv_python-3.4.4.19-cp35-cp35m-linux_armv7l.whl

然後上傳到樹莓派,使用以下命令安裝:

sudo pip3 install opencv_python-3.4.4.19-cp35-cp35m-linux_armv7l.whl

如果出現以下代碼,說明安裝成功:

Processing ./opencv_python-3.4.4.19-cp35-cp35m-linux_armv7l.whlRequirement already satisfied: numpy>=1.12.1 in /usr/lib/python3/dist-packages (from opencv-python==3.4.4.19)Installing collected packages: opencv-pythonSuccessfully installed opencv-python-3.4.4.19

智能監控主要代碼:

# -*- coding: utf-8 -*-# import 進openCV的庫import cv2import osimport timefrom wxpy import *"""樹莓派打造智能看門狗sudo pip3 install opencv-pythonsudo pip3 install wechat_sender"""# 登錄微信bot = Bot()my_friend = bot.friends().search('監控狗')[0]# 調用攝像頭檢測人臉並截圖def camera(window_name, path_name): # Linux 不顯示圖形界面 # cv2.namedWindow(window_name) # 視頻來源,來自USB攝像頭 cap = cv2.VideoCapture(0) # 告訴OpenCV使用人臉識別分類器 classfier = cv2.CascadeClassifier(os.getcwd()+"/haarcascade/haarcascade_frontalface_alt.xml") # 識別出人臉後要畫的邊框的顏色,RGB格式, color是一個不可增刪的數組 color = (0, 255, 0) num = 0 while cap.isOpened(): ok, frame = cap.read() # 讀取一幀數據 if not ok: break # 將當前楨圖像轉換成灰度圖像 grey = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # 人臉檢測,1.2和2分別為圖片縮放比例和需要檢測的有效點數 faceRects = classfier.detectMultiScale(grey, scaleFactor=1.2, minNeighbors=3, minSize=(32, 32)) if len(faceRects) > 0: # 大於0則檢測到人臉 for faceRect in faceRects: # 單獨框出每一張人臉 x, y, w, h = faceRect num = num+1 # 將當前幀保存為圖片 img_name = "%s/%d.jpg" % (path_name, num) image = frame[y - 10: y + h + 10, x - 10: x + w + 10] cv2.imwrite(img_name, image, [int(cv2.IMWRITE_PNG_COMPRESSION), 9]) print("有人來了~~~") alarm(num) # 延遲 60s,不要太頻繁的發送,知道來了就可以了 time.sleep(60) # 畫出矩形框 cv2.rectangle(frame, (x - 10, y - 10), (x + w + 10, y + h + 10), color, 2) # 顯示當前捕捉到了多少人臉圖片了 font = cv2.FONT_HERSHEY_SIMPLEX cv2.putText(frame, 'num:%d/1000' % (num), (x + 30, y + 30), font, 1, (255, 0, 255), 4) # 顯示圖像 Linux 下注釋掉即可 # cv2.imshow(window_name, frame) c = cv2.waitKey(10) if c & 0xFF == ord('q'): break # 釋放攝像頭並銷燬所有窗口 cap.release() cv2.destroyAllWindows()def alarm(num): my_friend.send('有人闖進臥室了!') my_friend.send_image(os.getcwd()+"/dog/"+str(num)+".jpg")if __name__ == '__main__': camera("watchdog", os.getcwd()+"/dog")

運行腳本,系統會自動生成一個二維碼,使用微信掃描登錄即可:

python3 watchdog.py

然後,把你的狗頭對準攝像頭,神奇的事情就這麼發生了。

有點小遺憾的是,啟動腳本後,Python 進程 CPU 佔用率居然高達300+,平均每個 CPU 差不多80+的樣子,心疼我的小風扇一秒鐘。

小結

如果你比較追求精緻,還是不要這麼搞了,這套方案離小米網絡監控視攝像頭功能差遠了,到手價只要189,而一個樹莓派的板子就 200+。

如果你喜歡瞎折騰,還是蠻好的,不僅能學到知識,還能體會到其中的樂趣,最重要的是可以隨心所欲的接入可以實現的任何功能。