資訊工程學系
Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/60
本系前身「資訊教育學系」成立於民國七十四年,首先招收大學部學生,民國九十年成立資訊工程研究所碩士班,而後於民國九十五年進行系、所調整合併為「資訊工程學系」;並於九十六年成立博士班。本系目前每年約招收大學部四十餘人,碩士班六十餘人,博士班約五人,截至民國一百零四年十一月止,總計現有大學部一百九十多人,碩士班一百二十多人,博士班二十三人,合計學生人數約為三百三十多位。
News
Browse
4 results
Search Results
Item 線上學習者分心行為偵測研究(2023) 戚祐寧; Chi, Yu-Ning當我們從事重要的事情時,保持專心與集中精力至關重要。舉例來說,當駕駛車輛時,如果不專心駕駛不僅可能造成交通事故,還有可能導致人身傷亡和財物損失。再者,對於醫生來說,在進行手術時也必須保持專注,因為任何的分心都有可能導致嚴重的醫療錯誤,造成不必要的傷害。此外,在學習方面,當學生在讀書時,如果不能保持專心,可能會錯過重要的概念,影響其學習效果。本研究以線上學習者行為偵測為例,藉由電腦內建鏡頭拍攝學生上課情況,透過偵測發現課堂中常見的不專心行為。本研究提出以人臉偵測判斷影像中學生是否坐在座位上,並藉由頭部姿勢及眼睛視線判斷學生是否保持專注;同時使用哈欠偵測確認學生疲憊情況。此外,針對學生上課電腦螢幕進行場景偵測,自動辨別課程段落,進而探討學生是否專心於課堂。 本研究的實驗資料源自於本校研究所六名研究生協助拍攝的實際線上課程學習影像,通過實驗驗證各項行為偵測方法及整體可行性。實驗結果顯示,系統在整體學習專心程度偵測的準確率為 88%,由此可知,本研究方法能有效地偵測出線上學習者的專心與不專心。因此,本研究將進一步針對各受試者及各課程進行深入探討。Item 基於聚類之影片人數計數分析(2021) 簡郁璇; Chien, Yu-Shuan近年來科技日新月異的發展,多媒體串流影片服務平台更是不可勝數,各式各樣的影片上傳到各個影音平台作為影音串流服務,使用者經常利用電子產品來觀看喜愛的電視劇或影集,若要針對影片進行語言學習,則必須自動挑定影片中某位主角所有的畫面與台詞,然而自動擷取以便進行練習,因此,本研究進行影片中人物的分群分析。傳統判別影片中人物的研究,都需要事先輸入主角人臉圖像,提取人臉特徵作爲人臉庫,進而將偵測到的人臉與人臉庫特徵比對,才能得到比對結果,然而如果沒有一開始的主角人圖像,便會無法預測影片中的人物,因此本研究探討在無監督訓練條件之下,針對影片進行人臉聚類(face cluster)將一部影片中的人臉分成為不同簇(cluster)之後,並且尋找聚類中心(centroid)作爲質量最高的圖像,透過人臉檢索(face retrieval)的方法採用上述聚類中心作爲人臉庫,即可分析影片中主角之人臉特徵與人臉庫進行比對。透過本研究所提出合併Facenet、Chinese-Whisper聚類、Annoy三種技術,以四部影集的不同場景內容環境作為實驗情境,在影片人數為五人內人臉偵測準確率達95.3%、十人內人臉偵測準確率達87.9%、十五人內人臉偵測準確率達82.7%。由於人臉經由時間會有不同變化,根據實驗結果,使用第一年的主角人臉庫進行偵測已經經過四年的影片,此人臉偵測準確率仍能維持81.8%。本研究聚類方法在LFW公開資料庫上高於 K-means、DBSCAN 聚類方法,代表聚類後的簇類與真實類別的吻合度相近。Item 應用於遠距教學之學習專注程度偵測研究(2020) 陳文賢; Chen, Wen-Xian本研究進行學習專注度偵測的研究,藉由專注度偵測降低因為不專注導致學習進度的落後,並且將研究應用在較需要偵測專注度的遠距教學環境。本研究提出藉由人臉偵測和機器學習判斷影片中每張影像人臉的視線位置,透過發呆偵測以及臉部位移偵測取得動作資訊,使用影像分段處理以及滑動窗口處理連續性的影像,將影片的每個區段判斷成專心或不專心的狀態。 實驗資料來源包括高中補習班補課以及大學遠距教學兩種不同類型的學習影片,實驗結果發現專心行為判定的準確度為93%,不專心行為判定的準確度為81%。由結果得知本研究方法能有效地偵測到出現不專心行為的時間,透過臉部位移偵測方法也能避免做筆記的行為被判定為不專心。Item 基於背景模型的姿勢判斷系統(2011) 李振遠; Chen Yuan Lee姿勢辨識在電腦視覺領域中,特別是針對人體部分是項越來越重要的議題,涵蓋的範圍可分為:手部與手臂的姿勢辨識、頭部與臉部姿勢辨識、整個身體姿勢辨識等種類。在姿勢辨識的問題中,一個很大的瓶頸在於如何在複雜環境下取得所需要的特徵資訊,並且選擇適當的方法將這些資訊完成姿勢辨識。本論文主要目標是在真實的教室裡並且只有一台攝影機拍攝下,能即時(real-time)辨識出講者的手臂姿勢來達到控制投影片的效果,所提出的方法能讓講者在教室投影機照射下,穩定並不受投影機照射並且背景隨著投影片的換頁變化影響下抓取需要的資訊來進行辨識。本論文使用高斯混合背景模(Mixture of Gaussian background model)來擷取出前景(foreground)的輪廓(silhouette)影像,並使用連通元(connected component)將前景輪廓的特徵資訊截取出來,並套入支持向量機(Support Vector Machine,SVM)對手臂動作進行分類。此外,搭配人臉偵測(face detection)方法能分辨出左右手,達到不同手部動作來控制投影片的效果。