理學院

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/3

學院概況

理學院設有數學系、物理學系、化學系、生命科學系、地球科學系、資訊工程學系6個系(均含學士、碩士及博士課程),及科學教育研究所、環境教育研究所、光電科技研究所及海洋環境科技就所4個獨立研究所,另設有生物多樣性國際研究生博士學位學程。全學院專任教師約180人,陣容十分堅強,無論師資、學術長現、社會貢獻與影響力均居全國之首。

特色

理學院位在國立臺灣師範大學分部校區內,座落於臺北市公館,佔地約10公頃,是個小而美的校園,內含國際會議廳、圖書館、實驗室、天文臺等完善設施。

理學院創院已逾六十年,在此堅固基礎上,理學院不僅在基礎科學上有豐碩的表現,更在臺灣許多研究中獨占鰲頭,曾孕育出五位中研院院士。近年來,更致力於跨領域研究,並在應用科技上加強與業界合作,院內教師每年均取得多項專利,所開發之商品廣泛應用於醫、藥、化妝品、食品加工業、農業、環保、資訊、教育產業及日常生活中。

在科學教育研究上,臺灣師大理學院之排名更高居世界第一,此外更有獨步全臺的科學教育中心,該中心就中學科學課程、科學教與學等方面從事研究與推廣服務;是全國人力最充足,設備最完善,具有良好服務品質的中心。

在理學院紮實、多元的研究基礎下,學生可依其性向、興趣做出寬廣之選擇,無論對其未來進入學術研究領域、教育界或工業界工作,均是絕佳選擇。

Browse

Search Results

Now showing 1 - 4 of 4
  • Item
    基於壓力感測器與深度學習之居家運動分析系統
    (2023) 李昱勳; Lee, Yu-Hsun
    2019年新型冠狀病毒的爆發,因其強大的傳播力,人們被迫待 在家中減少外出。運動中心與健身房等場所也容易因為汗水或是 近距離的接觸進而增加染疫的風險。然而大部分的使用者在沒有 教練的協助下,常常導致動作不夠標準或是缺乏系統性的訓練, 造成運動傷害以及成效有限。因此本研究提出 Home Exercise Analysis System Based on Pressure Sensor and Deep Learning,簡稱 為 HomeXDL。HomeXDL 運用壓力及壓力重心變化結合深度學習 來達到運動紀錄以及動作正確度偵測。 資料前處理後,HomeXDL 從 CoP 軌跡以及壓力變化計算出的 特徵值,運用決策樹進行動 作種類的分辨,在深蹲、硬舉及弓箭步的動作分類中,準確度 (Accuracy)達91%以上。動作正確度判斷上,HomeXDL 運用 CNN 對上述三個動作的正確度偵測。在系統有標記的動作問題上, HomeXDL 也皆能快速且精準的偵測出來,三個動作整體準確度 也達90%以上。最後 HomeXDL 的使用者介面能及時的回饋給使 用者其運動品質與動作錯誤原因,對使用者在運動過程中有很大 的幫助。
  • Item
    以BERT-CNN模型進行建議句探勘
    (2021) 房昱翔; Fang, Yu-Hsiang
    隨著智慧型手機、行動網路的普及,民眾每天接收到的訊息量與日俱增,其中評論占據了很大一部份,不同於氣象預報、股票市值這些僅能夠單方面接收的資訊,評論往往是由民眾主動去搜尋及撰寫的,舉凡食、衣、住、行、育、樂,許多民眾已經養成先上網搜尋相關評論後再做決定的習慣,本研究希望透過深度學習的方法,將大量的網路評論,在進行完整分析後作出適當的分類。本研究使用的資料集來自於2019年舉辦的國際自然語言語意評測競賽(Semantic Evaluation 2019, SemEval 2019)中的Task 9,該資料集中的評論可分為建議句(suggestion)及非建議句 (non suggestion),將其進行前處理後與類神經網路模型進行連接,其中用到了由Google公司於2018年提出的BERT (Bidirectional Encoder Representations from Transformer)及卷積類神經網路(Convolutional Neural Networks, CNN)。本研究將對該競賽項目的子任務A進行實驗,評估方式採用正確率(Precision) 及F1分數(F1-measure, F1),其中驗證資料集同樣來自SemEval主辦方,並會與當年參加競賽的隊伍進行比較。
  • Item
    基於循環神經網路之注視區域分析
    (2020) 李欣芸; Lee, Hsin-Yun
    人類在認知學習的過程中,大部分的訊息是透過眼睛視覺所獲得,並且在視線範圍內若能找到感興趣之區域,會產生一系列的凝視與掃視反應,因此若能掌握眼球運動視覺軌跡,即能分析使用者之行為模式與認知學習歷程,而此模式已廣泛應用於各個領域之中。 過去所使用的注視追蹤方法,在蒐集注視數據資料時,通常會將使用者頭部固定,再進行注視模型訓練與分析,藉此提高訓練分類之準確率。然而當使用者頭部偏移時,則會導致注視分類預測之準確率降低,因此本研究探討非固定頭部的分類準確度。 本研究使用一般的網路攝影機,為了提升非固定頭部分類之準確度,過往的注視追蹤之研究常以眼睛外觀模型劃分注視區域,本研究則探討訓練模型架構結合卷積神經網路架構與循環神經網路之演算法,透過計算頭部姿勢預估中的俯仰角、偏航角與翻滾角加入模型訓練,使得使用者頭部能在偏移範圍於俯仰角+/-10°與偏航角+/-20°內移動,並且同時參考前一秒時間空間序列上的視線區域,再做注視點預測與分析,提高注視區域分類準確率表現。 透過本研究所提出CNN+RNN之訓練模型,在不同注視區域劃分下為2x2準確率達 98%、3x3準確率達 97%、4x4準確率達 90%、5x5準確率達 85%、6x6準確率達 80%、7x7準確率達 74%、8x8準確率達 69%、9x9準確率達 62%,相較於單一採用CNN架構訓練模型分類準確率,CNN+RNN模型架構能有效提升整體注視區域分類準確率 7~15%。
  • Item
    結合PTZ攝影機與光學雷達之CNN虛擬圍籬系統
    (2018) 陳靖允; Chen, Ching-Yun
    本研究開發一套結合PTZ(Pan-Tilt-Zoom)攝影機與光學雷達(Light Detection and Ranging, LiDAR)之CNN(Convolutional Neural Network,卷積神經網路)虛擬圍籬系統。 虛擬圍籬與傳統的隔離方式不同,並不需要真正築起一道實體的牆壁或護欄,而是利用各種電子裝置與軟體程式的結合,建立人眼不可察覺的虛擬防線。虛擬圍籬具有下列優點:(A)低人力介入且警戒可為全天候、大範圍 (B)具機動性與擴充性 (C)不破壞原景觀 (D)即時通報且可延伸後續處理。但實際應用上,虛擬圍籬常因誤報率太高,處理和通報速度太慢等因素,尚未被大眾所接受。 本研究分別從軟硬體兩方面來提升傳統虛擬圍籬偵測與辨識的準確度與速度。在硬體方面的改良是使用LiDAR與PTZ攝影機。LiDAR所發出的紅外線不但可以做為系統的觸發器,而且它不易受天候與光影影響,可以降低誤判,提高系統的精準度與穩定度。此外,LiDAR也將偵測到的侵入物距離資訊傳送給PTZ攝影機以控制鏡頭的變焦縮放,使得拍攝到的影像都有適當的大小,增加後續CNN分類辨識的準確度。 在軟體方面的改良則是使用CNN,利用它強大的特徵學習能力,提升辨識分類的速度與準確率。本研究以不同的訓練模式以及不同的資料集前處理來進行VGG-16與Darknet-19的實驗。就訓練模式而言,使用以ImageNet大量資料訓練所得的pretrained參數,再加上與測試資料前處理類型相近的資料集進行fine-tune,可以得到最佳的成效。就資料集前處理而言,本研究將其大致分為Original(即原本的邊界框影像)、Rescaled(以程式自動將邊界框影像等比縮放置中放入符合CNN輸入尺寸的黑色或灰色底)、Matting(去背景,將背景塗成黑色或灰色)、以及Matting&Rescaled(以程式自動將去背景後的邊界框影像等比縮放置中放入符合CNN輸入尺寸的黑色或灰色底)。實驗顯示,訓練和測試都使用Rescaled版的資料集可以得到最高的mAP,其中VGG-16實驗中,訓練和測試都使用Rescaled-Grey版資料集可得到96.3%的mAP。 對於虛擬圍籬系統而言,因為侵入物件有移動的動態資訊,會造成連續畫面的變化,因此系統可經由移動物件定位法來找出侵入物件及其邊界框,不需像傳統的物件偵測系統是以單張靜態的影像畫面為輸入,必須產生和評比各種可能的物件邊界框,並浪費資源和時間在不必要的背景物件的偵測和辨識上。本研究所採用的移動物件定位法是運用三個連續畫面的連續影像相減法,並且採運作速度極快的bitwise_and函式取相減影像的交集,以得到較精確的移動前景與邊界框。此外,可用經過動態形態學填補空洞後的二值化前景影像為遮罩,與原影像或邊界框影像結合後,達到粗略的去背景(matting)效果。Matting& Rescaled-Grey版資料集在VGG-16也有很高的mAP(95.3%)。 目前本系統設定區分的侵入者類別為三類,分別是「行人」、「動物」和「非人且非動物」。使用者可以視應用場所的需求,對三個類別的侵入者做不同的處理,使後續的應用更有彈性。從整合測試的實驗結果顯示,本研究虛擬圍籬系統整體的偵測準確率mAP達95%以上,而從LiDAR觸發取像至判斷出物件類別的平均處理時間則在0.2sec.以下,是一套準確率高且速度快的實用系統。