資訊工程學系
Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/60
本系前身「資訊教育學系」成立於民國七十四年,首先招收大學部學生,民國九十年成立資訊工程研究所碩士班,而後於民國九十五年進行系、所調整合併為「資訊工程學系」;並於九十六年成立博士班。本系目前每年約招收大學部四十餘人,碩士班六十餘人,博士班約五人,截至民國一百零四年十一月止,總計現有大學部一百九十多人,碩士班一百二十多人,博士班二十三人,合計學生人數約為三百三十多位。
News
Browse
3 results
Search Results
Item 基於邊緣計算和深度學習之病媒蚊分類系統(2019) 洪銘鴻; Hong, Ming-Hong由於登革熱與日本腦炎是由病毒所引起的一種傳染病,會經由蚊子傳播給人類。在最近一次 2015 年的台南市爆發登革熱的疫情,最初只出現在台南市北部地區,接著以驚人的速度擴散到全台南市,最終蔓延至台灣全島。當年,確診病例超過 4 萬人,死亡病例也高達 218 人,而且未發病的感染者約為發病者的九倍至十倍。若患者再次被病媒蚊叮咬造成交叉感染,則重症死亡率會大幅度提升至 20%以上,而且目前沒有預防疫苗,也沒有特效藥物可治療,而引發登革熱的病媒蚊為埃及斑蚊(Aedes aegypti)與白線斑蚊 (Aedes albopictus)。而日本腦炎的致死率大約為 20%以上,存活病例約有 40%有神經性或精神性的後遺症,而且亦目前沒有特效藥可治療,引發日本腦炎的病媒蚊為三斑家蚊(Culex tritaeniorhynchus)與環蚊家蚊(Culex annulus),避免病媒蚊叮咬是目前唯一的預防登革熱及日本腦炎的方法。 為解決登革熱與日本腦炎問題,本篇論文提出病媒蚊分類系統,這是一套影像分類準確率高達 98%以及計數功能的智慧捕蚊系統,其中包含邊緣計算、深度學習的影像處理和 電腦視覺,主要功能在邊緣計算為物體偵測,深度學習為斑蚊分類與計數,透過這些步驟,改善了現今捕蚊燈、滅蚊燈不能分類 (Classification)蚊子種類。並以智慧捕蚊裝置收集影像資料,主要資料收集與處理正是引發登革熱的兩種台灣常見的病媒蚊種類──白線斑蚊與埃及斑蚊以及引發日本腦炎的兩種台灣常見的病媒蚊種類──三斑家蚊與環蚊家蚊,並在分類時以斑蚊 (Aedes) 和家蚊 (Culex) 進行二元分類,由於此系統與裝置獲得更多台灣蚊子資訊,其資訊包含進入捕蚊燈的蚊子數量、種類以及時間、地點,以便後續作為對病媒蚊採取措施的重要參考依據。Item 基於CNN對於多人環境進行人臉辨識之研究(2020) 李聿宸人臉辨識於現今社會為熱門的議題,每個人皆有獨一的臉部特徵,相較於密碼或是個人證件等傳統的識別方式,人臉辨識既不需要隨時攜帶實體證件也不用擔心忘記密碼。當經由辨識而取得臉部影像後,就能夠藉由不同的臉部特徵與人臉資料庫進行比對來驗證身分。 本研究以設置於教室上方的攝影機拍攝課堂環境,取得之臉部影像解析度較低,因此人臉特徵較不突出,且亦有光線亮度不均勻以及臉部偏移等問題,導致傳統人臉辨識效果不佳。本研究運用YOLOv3結合深度學習的人臉偵測技術取得個人的臉部影像,並搭配卷積神經網路 (Convolutional Neural Network)訓練合適的模型進行人臉辨識,對於20 × 20以上之低解析度且包含不同角度的臉部影像,皆能達到97%以上的辨識準確率。由於人臉長時間下來會有些許的變化,根據實驗結果,經由四個月後之臉部影像仍能維持94%的辨識準確率。Item 結合PTZ攝影機與光學雷達之CNN虛擬圍籬系統(2018) 陳靖允; Chen, Ching-Yun本研究開發一套結合PTZ(Pan-Tilt-Zoom)攝影機與光學雷達(Light Detection and Ranging, LiDAR)之CNN(Convolutional Neural Network,卷積神經網路)虛擬圍籬系統。 虛擬圍籬與傳統的隔離方式不同,並不需要真正築起一道實體的牆壁或護欄,而是利用各種電子裝置與軟體程式的結合,建立人眼不可察覺的虛擬防線。虛擬圍籬具有下列優點:(A)低人力介入且警戒可為全天候、大範圍 (B)具機動性與擴充性 (C)不破壞原景觀 (D)即時通報且可延伸後續處理。但實際應用上,虛擬圍籬常因誤報率太高,處理和通報速度太慢等因素,尚未被大眾所接受。 本研究分別從軟硬體兩方面來提升傳統虛擬圍籬偵測與辨識的準確度與速度。在硬體方面的改良是使用LiDAR與PTZ攝影機。LiDAR所發出的紅外線不但可以做為系統的觸發器,而且它不易受天候與光影影響,可以降低誤判,提高系統的精準度與穩定度。此外,LiDAR也將偵測到的侵入物距離資訊傳送給PTZ攝影機以控制鏡頭的變焦縮放,使得拍攝到的影像都有適當的大小,增加後續CNN分類辨識的準確度。 在軟體方面的改良則是使用CNN,利用它強大的特徵學習能力,提升辨識分類的速度與準確率。本研究以不同的訓練模式以及不同的資料集前處理來進行VGG-16與Darknet-19的實驗。就訓練模式而言,使用以ImageNet大量資料訓練所得的pretrained參數,再加上與測試資料前處理類型相近的資料集進行fine-tune,可以得到最佳的成效。就資料集前處理而言,本研究將其大致分為Original(即原本的邊界框影像)、Rescaled(以程式自動將邊界框影像等比縮放置中放入符合CNN輸入尺寸的黑色或灰色底)、Matting(去背景,將背景塗成黑色或灰色)、以及Matting&Rescaled(以程式自動將去背景後的邊界框影像等比縮放置中放入符合CNN輸入尺寸的黑色或灰色底)。實驗顯示,訓練和測試都使用Rescaled版的資料集可以得到最高的mAP,其中VGG-16實驗中,訓練和測試都使用Rescaled-Grey版資料集可得到96.3%的mAP。 對於虛擬圍籬系統而言,因為侵入物件有移動的動態資訊,會造成連續畫面的變化,因此系統可經由移動物件定位法來找出侵入物件及其邊界框,不需像傳統的物件偵測系統是以單張靜態的影像畫面為輸入,必須產生和評比各種可能的物件邊界框,並浪費資源和時間在不必要的背景物件的偵測和辨識上。本研究所採用的移動物件定位法是運用三個連續畫面的連續影像相減法,並且採運作速度極快的bitwise_and函式取相減影像的交集,以得到較精確的移動前景與邊界框。此外,可用經過動態形態學填補空洞後的二值化前景影像為遮罩,與原影像或邊界框影像結合後,達到粗略的去背景(matting)效果。Matting& Rescaled-Grey版資料集在VGG-16也有很高的mAP(95.3%)。 目前本系統設定區分的侵入者類別為三類,分別是「行人」、「動物」和「非人且非動物」。使用者可以視應用場所的需求,對三個類別的侵入者做不同的處理,使後續的應用更有彈性。從整合測試的實驗結果顯示,本研究虛擬圍籬系統整體的偵測準確率mAP達95%以上,而從LiDAR觸發取像至判斷出物件類別的平均處理時間則在0.2sec.以下,是一套準確率高且速度快的實用系統。