理學院

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/3

學院概況

理學院設有數學系、物理學系、化學系、生命科學系、地球科學系、資訊工程學系6個系(均含學士、碩士及博士課程),及科學教育研究所、環境教育研究所、光電科技研究所及海洋環境科技就所4個獨立研究所,另設有生物多樣性國際研究生博士學位學程。全學院專任教師約180人,陣容十分堅強,無論師資、學術長現、社會貢獻與影響力均居全國之首。

特色

理學院位在國立臺灣師範大學分部校區內,座落於臺北市公館,佔地約10公頃,是個小而美的校園,內含國際會議廳、圖書館、實驗室、天文臺等完善設施。

理學院創院已逾六十年,在此堅固基礎上,理學院不僅在基礎科學上有豐碩的表現,更在臺灣許多研究中獨占鰲頭,曾孕育出五位中研院院士。近年來,更致力於跨領域研究,並在應用科技上加強與業界合作,院內教師每年均取得多項專利,所開發之商品廣泛應用於醫、藥、化妝品、食品加工業、農業、環保、資訊、教育產業及日常生活中。

在科學教育研究上,臺灣師大理學院之排名更高居世界第一,此外更有獨步全臺的科學教育中心,該中心就中學科學課程、科學教與學等方面從事研究與推廣服務;是全國人力最充足,設備最完善,具有良好服務品質的中心。

在理學院紮實、多元的研究基礎下,學生可依其性向、興趣做出寬廣之選擇,無論對其未來進入學術研究領域、教育界或工業界工作,均是絕佳選擇。

Browse

Search Results

Now showing 1 - 7 of 7
  • Item
    RIDNet深度學習去噪模型的提升:基於網絡結構與損失函數的調整
    (2024) 林宜亭; Lin, Yi-Ting
    自1970年代後期以來,隨著計算機視覺領域和數字影像處理的不斷發展,影像去噪技術也獲得了改善和創新。從最初基於空間域與變換域的濾波器、字典學習和統計模型的方法,到現今基於人工智慧的機器學習技術,可以發現影像去噪的方法日益多樣和精密。儘管許多去噪模型已經取得了相當不錯的成果,但仍然存在一些缺陷,比如需要手動設定參數、優化效果不佳,或者僅適用於特定類型的雜訊等。隨著卷積神經網路學習能力的增強和硬體技術的提升,基於深度學習的技術逐漸成為主要的影像去噪方法。卷積網路不僅能處理大量數據,還能進行高效的訓練和學習。然而,一般情況下的雜訊是無法得知的,因此能夠面對真實影像雜訊的盲去噪模型在當今的影像處理中尤其重要。這些模型必須具備強大的自適應能力,能夠有效地從影像中提取出雜訊的特徵並進行有效的去除,而不需要對雜訊進行先驗知識的設定。因此,在本篇論文中,對於盲去噪模型,我們將專注於擁有注意力機制和殘差學習的RIDNet,並對其EAM層數、激活函數及損失函數進行修改,並與其他現有的深度學習模型進行比較,如DnCNN和CBDNet。這些比較將幫助我們更了解模型,並為影像去噪技術進一步提供改善指引。
  • Item
    Modified Faster R-CNN with Applications to Cat and Dog Image Detection
    (2024) 黃世龍; Huang, Shih-Long
    隨著深度學習技術的快速發展,神經網絡在物件檢測應用的範圍和性能上不斷改進,取得了顯著的進展。本論文基於 Faster R-CNN 框架,通過調整參數和卷積神經網絡,應用於 Kaggle 數據集中的貓狗圖像檢測。通過觀察性能變化並使用統計重採樣方法來確保數據集對模型精度和召回率的影響,論文展示了重採樣方法和參數調整如何影響模型的精度和召回率。在調整到最佳參數後,論文展示了基於 ResNet 的 Faster R-CNN 模型在物件特徵提取和邊界框回歸中的有效性,並比較了單階段物件辨識與兩階段物件辨識的精度差異。實驗結果表明,作為 Faster R-CNN 模型中特徵提取卷積神經網絡的 ResNet 在該數據集上表現出色,且兩階段物件辨識模型在此數據集上有較好的精度表現。
  • Item
    利用樣本重組的半監督學習之場景文字偵測
    (2022) 葉家福; Yeh, Chia-Fu
    隨著科技的發展與進步,生活周遭所帶來的資訊越來越重要。在任何一個場景中,周遭的文字訊息都跟周圍的環境有著極高的相關性。若我們能自動偵測場景中的文字,以利後續的資料收集與分析,勢必能為生活帶來更多的方便性。場景文字偵測這項研究中,相關研究大多以英文為主。雖有少數工作研究簡體中文,但繁體中文幾乎沒有。而場景文字偵測為一般物件偵測中的一個特定應用,所以我們提出基於物件偵測的方法,應用在場景文字偵測上。而物件偵測方法大多使用監督式學習,其依賴大量的訓練樣本,但在真實世界中,標註樣本取得不易,所以聯合運用非標註樣本的半監督式學習方法,較符合真實世界的需求。本研究打造一個半監督式繁體中文場景文字偵測模型。透過交換具標註樣本的背景與文字來合成新樣本,並配合拼貼的資料增強方法,豐富訓練樣本的多樣性,實驗證明本論文提出的樣本重組能更有效地運用標註與未標註樣本。關鍵字:深度學習、物件偵測、場景文字偵測、半監督式學習。
  • Item
    使用LRCN模型進行情感分析
    (2023) 羅湧程; Luo, Yong-Cheng
    情感分析是近年來自然語言處理領域中的一個熱門研究方向。然而傳統的深度學 習分類模型往往難以捕捉到文本內在的複雜特徵,導致分類效果不佳。因此,本研究 使用深度學習的長期循環卷積網路(long term recurrent convolutional networks, LRCN)模型來進行文本的情感分析。同時我們也討論 Word2Vec 和GloVe 兩個預訓練模型所建構的詞向量空間對文本分析的影響,並以Reddit 和 Twitter 兩個資料集來探討這兩種模型的分類表現。同時我們也將LRCN 模型與傳統的深度學習模型:Convolutional Neural Network( 卷積神經網路 、Recurrent Neural Network ( 循環神經網路 、Long short term memory( 長短記憶神經網路 做比較,我們發現LRCN 能夠更有效的去捕捉字與字之間的空間特徵,通過循環網路層提取文字序列間的關係,有較佳的模型表現。
  • Item
    深度學習模型Schnet的分析、簡化與改進方法探討
    (2022) 洪聖軒; Hung, Sheng-Hsuan
    在深度學習應用化學領域的研究中,以對分子特定性質的高準確度、低計算成本預測的研究一直是具有高關注度的研究方向。在本研究中所使用的Schnet便是對此研究方向提出的一個相對成熟的深度學習模型,具有能預測QM9數據集中分子包含HOMO能量 (EH)、LUMO能量 (EL)以及兩者能量差距(EG)在內的性質平均絕對誤差達到接近或小於1 kcal/mol的準確度,並且其計算成本遠低於經典的DFT計算。針對Schnet的優秀預測效果,本研究對於其架構的主要部分進行分析,得到類似於誘導效應的資料關聯。之後,利用QM9數據集中的所具有的分子SMILES,產生鍵步資訊並替換Schnet架構中的一部份以達成輸入資訊的簡化,最終獲得了與原始Schnet相比大約1-2倍左右的平均絕對誤差。在架構的更改上,進一步利用來自Deep4Chem的分子數據集來測試Schnet經過簡化之後的架構其預測螢光放光波長、吸光波長以及量子產率的能力,然後再外加一層用以對分子環境不同作為標示的嵌入層,將分子環境的資訊輸入模型中,以獲得更好的預測結果。在對Schnet模型的後續改進中,對Deep4Chem分子數據集中的螢光分子之吸光與放光波長的預測,其平均絕對誤差達到了0.131 eV與0.087 eV;而在Schnet中加入一層嵌入層之後,對吸光與放光波長的預測之平均絕對誤差則被降低到了0.083 eV與0.082 eV。在預測量子產率的表現上,兩種模型分別的平均絕對誤差為0.336與0.292。
  • Item
    以深度學習為基礎之視覺式行人危及行車安全程度評估系統
    (2021) 曾永權; Tseng, Yung-Chuan
    交通工具的進步使往返各地越來越方便,但也帶來許多交通事故。根據台灣內政部統計年報[4]統計,諸多交通事故造成台灣每年數十萬人傷亡,其中又以道路上弱勢行人受到的傷害為大。故本研究提出以深度學習為基礎之視覺式行人危及行車安全程度評估系統。該系統利用行車紀錄器影片作為輸入,用於主動式安全駕駛輔助,辨識行人危及行車安全程度,提前警告駕駛注意行人,希望能藉此降低車禍事故發生。本研究首先對行人危及行車安全程度進行分析以及定義,將行人危及行車安全程度依據行人與攝影機距離、行人在影像中位置、行人面朝方位、行人是否移動、是否逆光5種條件分為14種情況,並將這14種情況對應到安全、低危險、中危險、高危險共4種類別。之後,本系統使用YOLOv4類神經網路模型作為骨架,進行YOLOv4的組合測試,並以前、後處理的方式進行改良。本研究最終提出Single YOLOv4、Two-stage Training YOLOv4以及Parallel YOLOv4三種流程。Single YOLOv4直接以行人危及行車安全程度進行訓練,預測時加入後處理方法刪除過度重疊的預測框。Two-stage Training YOLOv4先針對影像中「人」進行訓練,再利用此權重學習行人危及行車安全程度,預測時利用第二階段學習到的權重進行預測並刪除過度重疊的預測框。Parallel YOLOv4訓練及測試時採用兩個YOLOv4,一YOLOv4以「人」進行訓練,一YOLOv4以行人危及行車安全程度進行訓練,預測時將兩個YOLOv4各自過度重疊的預測框刪除後合併預測結果。本研究使用的測試資料庫之影片皆為作者親自拍攝,拍攝地區為新北市中永和地區,命名為Pedestrian-Endanger-Driving-Safety Evaluation Dataset。本研究所開發的行人危及行車安全程度系統將輸出一段影片,影片中含有行人的預測框,預測框上方有預測之危及行車安全程度,並根據4種不同危及行車安全類別,給予每個預測框不同顏色,用於區分危及行車安全程度。本系統以F1-measure作為正確率評估方式,最終獲得71.2%的正確率。
  • Item
    中國跳棋對弈平台與AI的實作
    (2019) 陳律濃; Chen, Lu-Nung
    近年來關於人工智慧的研究如火如荼的湧現,未來電腦的效能越高,相同時間內能處理的資訊量也會越高,人工智慧能解決的問題複雜程度亦會越來越大,例如近年來電腦對局中圍棋與人工智慧的成功結合例子AlphaGo。然而電腦對局的研究若要進展得順利,設計良善的使用者操作介面必不可少,所以本研究針對中國跳棋遊戲設計一個支援多玩家遊戲的自動對弈平台,期望在電腦對局的發展上能貢獻微薄之力。 本研究開發之電腦中國跳棋自動對弈平台利用OpenCV函式庫實作出一個直觀且方便的圖形化使用者操作介面,可以只用滑鼠點選各項功能進行設定並操作棋子。另外平台具備程式偵錯與對戰等主要功能,除了在比賽時能夠使雙方更清楚地檢視遊戲過程並減少手動操作失誤與爭議之外,偵錯時也可以藉由此平台檢視與驗證每一個走步的正確性,預設對戰對手也包含了本研究開發之AI引擎提供開發者測試強度。如此一來其他跳棋研究者只需專注於研發跳棋程式的AI引擎,以期望有更多同好加入電腦中國跳棋的研究,也有助於推廣中國跳棋這項遊戲。