學位論文
Permanent URI for this collectionhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/73912
Browse
2 results
Search Results
Item LSTM 法則應用於連續手勢辨識之研究──手勢辨識系統軟體與硬體於 FPGA 實作(2020) 鄧凱中; Teng, Kai-Chung本論文考量現實應用的方便性與實際應用,選擇現場可程式邏輯門陣列(Field Programmable Gate Array, FPGA)來硬體電路實現,並對電路運算單元參數化,以應變需求的變化。而演算法使用長短期記憶(Long Short-Term Memory,LSTM) [1]來訓練模型與手勢辨識。 LSTM 作為設計電路之模型,跟傳統遞歸神經網路(Recurrent Neural Networks, RNN) [2]不同的是,RNN 同一時間點 t 的輸入都在同一層面,將上一層的輸出當作下一層的輸入,但時間點 t 產生的梯度在往後傳遞幾層後就消失為一大難題。而 LSTM 使用 Input Gate、Output Gate 與 Forget Gate 三個控制閘成功的解決時間軸上梯度消失的問題,因此選擇 LSTM 為本論文的演算法則。 LSTM 模型以 Keras [3]平台來訓練與驗證,辨識率高達 98%。本論文的訓練與辨識資料庫使用擁有陀螺儀跟加速器的手機做為 Sensor 來收集手勢資料,並收集本實驗室多人的動作為資料庫,並對資料做圖形化來篩選優良的訓練資料。圖形或者影像辨識需要瞭解艱深且複雜的公式,還必須有能力編碼將公式實踐出來,對手勢的辨識如果使用傳統影像辨識的方法將會增加運算的時間、大量的運算資源消耗與記憶體儲存空間的需求。本論文分別使用手機陀螺儀與加速器的 X、Y、Z 軸數據為訓練資料,與傳統的影像辨識相比,差別為輸入資料每一筆的維度變成一維,節省硬體儲存資源與運算的複雜度。Item 基於循環神經網路之注視區域分析(2020) 李欣芸; Lee, Hsin-Yun人類在認知學習的過程中,大部分的訊息是透過眼睛視覺所獲得,並且在視線範圍內若能找到感興趣之區域,會產生一系列的凝視與掃視反應,因此若能掌握眼球運動視覺軌跡,即能分析使用者之行為模式與認知學習歷程,而此模式已廣泛應用於各個領域之中。 過去所使用的注視追蹤方法,在蒐集注視數據資料時,通常會將使用者頭部固定,再進行注視模型訓練與分析,藉此提高訓練分類之準確率。然而當使用者頭部偏移時,則會導致注視分類預測之準確率降低,因此本研究探討非固定頭部的分類準確度。 本研究使用一般的網路攝影機,為了提升非固定頭部分類之準確度,過往的注視追蹤之研究常以眼睛外觀模型劃分注視區域,本研究則探討訓練模型架構結合卷積神經網路架構與循環神經網路之演算法,透過計算頭部姿勢預估中的俯仰角、偏航角與翻滾角加入模型訓練,使得使用者頭部能在偏移範圍於俯仰角+/-10°與偏航角+/-20°內移動,並且同時參考前一秒時間空間序列上的視線區域,再做注視點預測與分析,提高注視區域分類準確率表現。 透過本研究所提出CNN+RNN之訓練模型,在不同注視區域劃分下為2x2準確率達 98%、3x3準確率達 97%、4x4準確率達 90%、5x5準確率達 85%、6x6準確率達 80%、7x7準確率達 74%、8x8準確率達 69%、9x9準確率達 62%,相較於單一採用CNN架構訓練模型分類準確率,CNN+RNN模型架構能有效提升整體注視區域分類準確率 7~15%。