學位論文

Permanent URI for this collectionhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/73890

Browse

Search Results

Now showing 1 - 10 of 235
  • Item
    適應不同氣候情境之流域多水庫多目標發電決策最佳化系統
    (2025) 曹顥瀚; Tsao, Hao-Han
    本文旨在開發一套流域多水庫多目標發電決策最佳化系統,以應對極端氣候下的挑戰。針對台灣大甲溪流域,該系統整合模糊類神經網路預測模型,來進行最上游德基水庫的入流量預測,並提出預測區間方法來量化預測的不確定性。藉由建立流域水庫間的逕流模型,來模擬水庫操作的耦合關係。此外,利用模糊邏輯與多準則決策方法,來動態調整決策權重,以及提出評估發電效率與排洪風險的指標,來設計多目標最佳化成本函數。最後,採用二階段逐小時多水庫最佳化架構,整合預測資訊與專家意見,來提升整體的水力發電調度效率、降低排洪風險,並在不同天氣事件中維持著不同的發電決策。
  • Item
    結合影像與四輪控制之智能車體與人體追蹤系統
    (2025) 呂彥澂; Lu, Yen-Cheng
    本研究設計一套可以辨識並追蹤人體的智慧型四輪驅動車。結合了四輪驅動車與影像辨識模型,車體由四顆馬達驅動四個車輪,具備靈活的運動控制能力,達成穩定追隨目標的控制。在影像辨識上,車體搭配深度攝影機擷取前方人體影像,透過關節偵測工具MediaPipe Pose擷取人體背部關節的移動資訊,並使用GRU時間序列模型學習並記憶主人的關節動作模式。當系統辨識出該模式與記憶資料相符時,會將此人標記為主人(Master),並啟動自動追隨模式。在運動控制方面,利用運動方程式得出的轉速控制馬達,並透過增量型PID控制器調整轉速,讓車子轉彎與前進更穩定。此研究整合了影像辨識、深度學習與四輪控制技術,有效提升四輪驅動車對指定目標的辨識準確率與追蹤穩定性,未來可應用於智慧陪伴、物流配送及購物跟隨等場域。
  • Item
    結合運動特徵之高效 3D卷積神經網路於細粒度足球動作辨識
    (2025) 陳以秀; Chen, Yi-Hsiu
    本研究提出結合運動特徵之高效 3D 卷積神經網路架構,應用於細粒度足球動作辨識任務。近年來,細粒度動作辨識逐漸成為重點研究方向,特別是在體育賽事領域,若能準確辨識如「傳球」、「射門」等細節動作,對於比賽分析具有極高價值。然而,細粒度動作在視覺上具有高度相似性,例如「踢球」與「慢跑」在外觀上極為接近,容易造成模型混淆。此外,即時應用亦帶來挑戰,系統必須能即時處理大量的影像並給出正確判斷,對模型的推論速度要求高。因此,如何在保持辨識準確度的同時兼顧運算效率,為細粒度足球動作辨識領域的核心問題。為了解決上述問題,本研究於 X3D 架構中嵌入運動特徵模組,以強化模型對細微運動變化的感知能力。實驗結果顯示,所提方法在整體準確率達 91.80% ,相較於基線模型提升 3.77%,而計算成本僅為基線模型的 1.04 倍,於辨識準確率與效率之間達成良好平衡,展現出應用於即時體育轉播與比賽分析之潛力。
  • Item
    四旋翼無人機結合視覺辨識障礙物與自主路徑導航
    (2025) 柯紀為; Ke, Ji-Wei
    本研究實現一套具備即時避障與自主導航能力之四旋翼無人機系統,整合視覺辨識、空間分析與路徑規劃技術,以提升無人機在複雜環境中的適應性。首先,在障礙物辨識方面,應用了Farnebäck 光流法,並結合光流補償提升移動物體偵測準確度。隨後,採用 DBSCAN 類聚法與區塊劃分方式,分析影像中障礙區域的分佈與面積,進一步轉換為 3D 空間中的實體位置資訊。在路徑規劃部分,使用 BFS 廣度優先搜尋演算法進行障礙區域探索,並結合反投影法將 2D 影像座標轉換至 3D 空間中,提供動態避障資訊。針對整體導航策略,採用快速探索隨機樹演算法(RRT*)產生初始路徑,再依序跟隨生成的航點進行飛行引導。在導航過程中,利用機載鏡頭即時取得影像,建立光流場以進行障礙物偵測,並即時分析四旋翼飛行器與障礙物之間的相對關係,實現動態調整與安全避障。實驗結果驗證,本研究所提出之系統可穩定進行視覺辨識、動態避障與空間導航,具有良好之實用性。
  • Item
    基於多動作辨識與手臂模仿學習之全向移動互動型機器人設計
    (2025) 許哲瑋; Hsu, Che-Wei
    本文設計並實現一款具備多動作辨識與手臂模仿功能的全向移動互動型機器人。結合全方向移動平台、多自由度機械手臂與深度影像分析模組,實現即時人機互動與模仿操作。動作辨識部分,採用人體骨架關節資訊,並以三層堆疊之長短期記憶網路(LSTM)建構時序動作辨識模型,有效識別使用者之肢體動作與手勢。在機械手臂模仿學習方面,運用深度影像追蹤與骨架分析技術,實時擷取使用者雙手關節位置,並透過逆向運動學迭代學習算出對應的機械手臂控制指令,使機器手臂執行相似的人體手臂姿態,達成模仿效果。除人機互動外,系統亦具備物體追蹤與撿球能力,結合物件偵測與深度相機資訊,定位三維空間目標物,驅動全向輪移動平台與手臂完成自主撿取任務。為驗證系統功能與效能,本文進行了多項實驗,針對動作辨識準確率、姿態擷取精度、模仿控制以及物體定位與撿取進行測試與分析,藉此確認系統在實際應用中的可行性與穩定性。
  • Item
    應用於行動裝置之基於深度學習的手繪運算放大器電路辨識與教學動畫生成系統開發
    (2025) 李柏翰; Li, Po-Han
    隨著深度學習技術的發展,手繪文本和電路圖的識別取得了顯著進步。然而,針對手繪運算放大器 OPA 電路的研究仍較為有限。本研究提出了一種行動裝置專用的手繪運算放大器電路識別與動畫生成系統,旨在解決現有影像搜尋工具(如 Google Images)無法有效辨識手繪電路的問題。本系統採用最新的 YOLOv9t 目標檢測模型進行電子元件識別,相較於 YOLOv8n,在模型參數量(Parameters, Params)與每秒十億次浮點運算次數(Giga Floating Point Operations Per Second, GFLOPS)方面均有所提升。系統透過分析識別出的電子元件及其相對位置來確定電路類型,並允許使用者輸入元件參數,以 Manim 動畫引擎生成對應的輸出波形動畫,幫助學生直觀理解運算放大器電路特性。本研究構建了一個包含 1,199 張手繪運算放大器電路圖的資料集,並比較了 YOLOv8n 和 YOLOv9t 兩種物件偵測模型的辨識效能。實驗結果顯示, YOLOv9t 與 YOLOv8n 在 Precision 指標上均達到 99%,整體辨識校效能相當。然而 YOLOv9t 的參數量為 2.8M,較 YOLOv8n 的 3.0M 減少約 7%,在模型輕量化方面展現優勢;此外 YOLOv9t 的每秒十億次浮點運算次數為 11.7,遠高於 YOLOv8n 的 8.1,效能提升約 44.4%。顯示 YOLOv9t 更具運算效率,適合應用於本系統所需的即時辨識場景。除此之外,系統整合 LINE Bot 作為互動介面,使學生可直接透過行動裝置拍攝手繪電路圖,並即時獲得識別結果與動畫回饋。整體實驗結果顯示,本系統在電子工程教育領域具有潛在應用價值,未來將進一步透過使用者調查來優化互動設計與學習成效。
  • Item
    基於階層式空間光譜緊密關聯性Transformer之高光譜與多光譜影像融合
    (2025) 何祐豪; Ho, Yu-Hao
    在衛星遙測領域 (Satellite Remote Sensing) 中高解析高光譜影像 (HRHSI, High Resolution Hyperspectral Image) 的獲取與生成一直是熱門的研究議題之一,原因是使用高解析高光譜影像能更加提升遙測物件偵測與辨識任務的準確率與可靠性。而使用低解析度高光譜影像 (LRHSI, Low Resolution Hyperspectral Image) 以及高解析度多光譜影像 (HRMSI, High Resolution Multispectral Image) 進行融合是常見且優秀的方法,此方法可以同時結合高光譜影像豐富的光譜資訊與多光譜影像的空間資訊以融合生成高品質的高解析高光譜影像。本論文中我們提出一個基於Transformer高光譜與多光譜影像融合任務用的類神經網路模型,此模型稱為HSSDCT,其透過Residual Dense Connection能降低訓練時資訊的損失並且有效地再利用特徵圖 (Feature Map),並使用SSC (Spatial-Spectral Correlation) 的架構以提升模型空間與光譜特徵的提取能力。此外,此模型採用階層式架構建立模型,透過由小到大改變每層Transformer的窗口大小 (Window Size) 以達到提取局部資訊與維持長程依賴性 (Long-Range Dependencies) 的效果。實驗結果顯示,此方法能以適當的模型大小與參數量融合生成高品質的高解析高光譜影像。
  • Item
    彩色電子紙的高效前光選擇法
    (2025) 黃鈺珊; Huang, Yu-Shan
    彩色電子紙透過黑白電子泳顯示器搭配彩色濾光片呈現色彩,但受限於結構,亮度與色彩飽和度不足。前光面板可提升亮度與色彩,然而不同前光組合對色彩再現影響顯著,如何依影像內容選擇最適前光成為關鍵課題。本研究提出根據影像內容決定前光選擇演算法,依據輸入影像的代表色,自動推估最佳前光參數。方法為先分析影像主色調,並利用反距離加權法,從 27 組量測樣本中內插最佳前光組合,再以三維三角剖分模型估算該前光下的色域範圍。為修正前光引起的整體色偏,建立色彩轉換矩陣將影像由標準光源色域轉換至當前前光條件,並計算色彩校正矩陣補償裝置非線性失真。運算過程以粒子群最佳化加速,同時結合亮度增強與誤差擴散半色調技術,提升細節與低亮區域可視性,並符合彩色電子紙顯示特性。結果顯示,本方法能有效改善不同前光條件下的色彩一致性與影像品質,具實用性與可行性。
  • Item
    基於超聲波的手部動作辨識模型研究
    (2025) 張仲軒; Chang, Michael-Austin
    隨著人工智慧與深度學習技術的快速發展,人體動作辨識在醫療照護、監控系統、人機互動等領域展現出極高的應用潛力。然而,傳統的影像辨識技術多仰賴可見光或紅外線攝影機,不僅容易受到環境光源變化影響,可能還有潛在的隱私疑慮。為解決上述問題,本研究提出一種結合超聲波訊號與深度學習之手部動作辨識模型,利用聲波反射特性來辨識手部動作,從而克服光線限制並提升隱私保護性。本研究使用USB介面的超聲波收音設備,錄製人體動作引發的聲波變化,並透過短時距傅立葉轉換(STFT)將訊號轉換為頻譜圖,以提取含有時頻解析度的特徵,接著使用ResNet-50卷積神經網路(CNN)進行手部動作分類。為驗證本方法之效能,本研究建立了一個包含五種手部動作及一類靜態背景的超聲波資料庫,並透過多位受試者進行測試以評估模型效能。實驗結果顯示,在特定實驗環境下,模型的辨識準確率可達95%;即使在不同受試者的推論測試中,仍能維持92%的表現。
  • Item
    GloFANet:融合全域特徵以提升資料利用效率之足球場關鍵點偵測架構
    (2025) 王宣懿; Wang, Hsuan-Yi
    在現代足球賽事的影像分析中,足球場關鍵點偵測對於球員定位、戰術分析與進球事件判斷等應用具關鍵作用。傳統方法如尺度不變特徵轉換(SIFT)與霍夫直線轉換(Hough Line Transform)雖具尺度與旋轉不變性,然在視角變化與遮蔽情境下表現有限。深度學習技術雖改善此問題,但在樣本數量有限的情況下仍面臨挑戰。為解決此問題,本研究提出全域特徵增強網路(Global Feature Augmented Network, GloFANet),結合全域與區域特徵,引導模型聚焦於重要結構,以提升判別能力與穩健性。實驗採用 SoccerNet 之 25,148 張影像,搭配自行標註資料共 542,690 筆資料點進行訓練。結果顯示,GloFANet 在七類關鍵點中達成 85.86% 的平均準確率(mean Average Precision),較 2023 年 SoccerNet 冠軍方法提升 5.96%。特別在中線偵測任務中,僅 2,137 筆樣本即提升 20.48% 準確率,展現於資料受限情境下之高資料效率與應用潛力。