理學院

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/3

學院概況

理學院設有數學系、物理學系、化學系、生命科學系、地球科學系、資訊工程學系6個系(均含學士、碩士及博士課程),及科學教育研究所、環境教育研究所、光電科技研究所及海洋環境科技就所4個獨立研究所,另設有生物多樣性國際研究生博士學位學程。全學院專任教師約180人,陣容十分堅強,無論師資、學術長現、社會貢獻與影響力均居全國之首。

特色

理學院位在國立臺灣師範大學分部校區內,座落於臺北市公館,佔地約10公頃,是個小而美的校園,內含國際會議廳、圖書館、實驗室、天文臺等完善設施。

理學院創院已逾六十年,在此堅固基礎上,理學院不僅在基礎科學上有豐碩的表現,更在臺灣許多研究中獨占鰲頭,曾孕育出五位中研院院士。近年來,更致力於跨領域研究,並在應用科技上加強與業界合作,院內教師每年均取得多項專利,所開發之商品廣泛應用於醫、藥、化妝品、食品加工業、農業、環保、資訊、教育產業及日常生活中。

在科學教育研究上,臺灣師大理學院之排名更高居世界第一,此外更有獨步全臺的科學教育中心,該中心就中學科學課程、科學教與學等方面從事研究與推廣服務;是全國人力最充足,設備最完善,具有良好服務品質的中心。

在理學院紮實、多元的研究基礎下,學生可依其性向、興趣做出寬廣之選擇,無論對其未來進入學術研究領域、教育界或工業界工作,均是絕佳選擇。

Browse

Search Results

Now showing 1 - 5 of 5
  • Item
    基於深度學習之攝影指引系統──多面相評論和評分
    (2024) 俞柏丞; Yu, Po-Cheng
    近年來,自然語言處理和影像處理領域進步迅速,各種應用蓬勃發展帶眾多應用。隨著手機成為日常拍攝的重要工具,本研究提出一套基於深度學習的拍攝指引系統。該系統結合自然語言處理和影像處理技術,幫助使用者在拍攝過程中獲得具有情感和美學價值的建議。本系統通過文字評論與美學分數提供指引,幫助使用者提高攝影技巧,並準確地捕捉畫面中的美感。拍攝指引系統主要可以分成兩個子系統,一個是輸出分數的美學評分子系統,另外一個是輸出文字的美學評論子系統。其中第一個為輸出分數的美學評分子系統,採用多尺度影像品質評估模型,作為本研究客觀評估影像的參考指標。另外一個為美學評論子系統,採用Encoder-Decoder構成的文字生成模型,本研究選擇SwinV2作為Encoder來擷取影像特徵,並使用GPT-2作為Decoder學習文字特徵,同時在其內部使用交互注意力機制(cross attention)做異質性特徵融合,最後生成評論。但交互注意力機制不能有效融合異質性特徵,所以本研究引入Self-Resurrecting Activation Unit (SRAU)來控制異質性特徵學習的內容。而GPT-2 block中的多層感知網路Multi-Layer Perceptron(MLP)無法學習處理複雜的特徵資訊,所以本研究採用前饋網路高斯誤差門控線性單元Feedforward Network Gaussian Error Gated Linear Units (FFN_GEGLU)網路架構,來提升模型學習的效果。為解決資料集過少的問題,本研究採用網路收集的弱標籤資料集,但弱標籤資料內文字評論常有錯誤。為提升資料集品質,本研究採用兩個方法。一是收集並整理弱標籤資料集,通過資料清洗提高品質;二是加入高品質資料進行訓練,並通過資料增強的方式增加高品質資料集的數量。通過這些資料處理方法,本研究將其整合成一個高品質資料集進行訓練及測試。結果顯示35個評估指標中有33個優於基準模型,改良證明模型在五種美學面向中有94%的指標優於基準模型,顯示其有效性。
  • Item
    應用兩階段生成模型於會議摘要之研究
    (2023) 黃怡萍; Huang, Yi-Ping
    近年來,由於疫情的影響和遠端工作的普及,線上會議和視訊交流平台的使用 變得更加廣泛。但隨之而來的問題是,會議記錄往往包含許多分散的資訊,要 在大量的對話中擷取和理解關鍵資訊是困難的,且隨著會議越來越頻繁,意味 著參與者需要在有限的時間內掌握會議的要點,以便在忙碌的日程中做出明智 的決策。在這樣的情境下,能夠從會議紀錄中自動辨識和摘要出關鍵資訊的技 術變得更為重要。自動文件摘要主要分為擷取式 (Extractive) 和重寫式 (Abstractive) 兩種方 法,擷取式摘要透過計算原始文件中每個句子的重要性分數,選擇得分高的句 子並將它們組合起來成為摘要。重寫式摘要透過對原始文件的理解重新改寫句 子,生成出一個簡潔且包含原始文件中核心內容的摘要。由於對話中的話語經 常是不流暢且資訊分散的,使用擷取式摘要容易擷取出不完整的句子,造成可 讀性不高。目前在會議摘要任務中,主要的應用是能夠將原始語句改寫的重寫 式摘要。雖然已有許多相關的研究被提出,重寫式的方法應用在會議摘要中仍 面臨幾個普遍性的限制,包括輸入長度問題、複雜的對話結構,以及缺乏訓練 資料與事實不一致,而這些問題也是提高會議摘要模型效能的關鍵。本論文專注在「輸入長度問題」和「對話式結構」的研究,提出了一個先 擷取後生成的會議摘要模型架構,在擷取階段設計了三種方法來選擇重要的文 本片段,分別是異質圖神經網路模型、對話語篇剖析和文本相似度。在生成階 段使用先進的生成式預訓練模型。實驗結果顯示,提出的方法透過微調基線模 型,可以達到效果提升。
  • Item
    基於圖神經網路之假新聞偵測研究
    (2023) 姚秉均; Yao, Bing-Jun
    在現今互聯網時代,隨著網路技術不斷發展,使得我們在閱覽資訊上也越來越便利,但與此同時,假新聞也藉著技術發展的順風車變得更容易生產傳播以及造成影響。所以本人便打算做和假新聞辨識相關的研究,找到較好的假新聞辨識的方法並提升假新聞辨識的準確率。由於看到CompareNet這一圖神經網路模型對於假新聞的辨識相較其他基礎方法效果更好。因此本研究是以CompareNet這一研究為基礎,基於LUN(Labeled Unreliable News Dataset)語料庫中的LUN-train語料庫創建了一個含有普通名詞、複數名詞、專有名詞、動詞、形容詞、副詞的知識庫,並將該知識庫和CompareNet這一研究相結合,使用LUN語料庫中的LUN-train語料庫來訓練模型、使用SLN(Satirical and Legitimate News Database)以及LUN語料庫中的LUN-test語料庫來對模型進行測試,提升假新聞辨識的準確率。
  • Item
    資訊擷取與知識注入技術於機器閱讀理解之研究
    (2022) 吳沁穎; Wu, Chin-Ying
    近年來,預訓練上下文語言模型 (Pre-trained Contextualized Language Modeling, PCLM) 的出現,使得基於 PCLM 的方法在各種機器閱讀理解 (Machine Reading Comprehension, MRC) 與對話式機器閱讀理解 (Conversational MRC, CMRC) 都有非常優秀的表現。然而,在機器閱讀理解領域仍然較少研究琢磨於開放領域知識 (Open-domain Knowledge) 與域內知識 (In-domain Knowledge) 的運用。有鑑於此,本論文提出一種針對MRC與CMRC的有效建模方法。此方法具有兩個主要的特點:首先,針對文章段落進行訊息提取 (Information Extraction, IE) 的預處理,藉此將每個文章段落聚類成一個偽類 (Pseudo-class) 以提供PCLM 進行訊息增強,進而提升後續 MRC與CMRC的任務表現;另一方面,本論文提出了一種新的知識注入 (Knowledge Injection, KI) 方法,將開放領域知識 (Open-domain Knowledge) 與域內知識 (In-domain Knowledge) 注入至 PCLM ,藉此捕捉更為精準的問題與文章段落間的相互關係。本論文將實驗結果與數個當今最佳的方法進行比較,除了在多個MRC與CMRC資料集上都有一定程度的表現外,大量的實證實驗也證明了本論文方法的有效性與可行性。
  • Item
    結合圖與上下文語言模型技術於常見問答檢索之研究
    (2021) 曾琬婷; Tseng, Wan-Ting
    近年來,深度學習技術有突破性的發展,並在很多自然語言處理的相關應用領域上也有相當亮眼的效能表現。而且大量資訊快速得傳播,如何更有效地取資訊仍是一項重要的課題,其中FAQ (Frequently Asked Question)檢索任務也成為重要的技術之一。FAQ檢索無論在電子商務服務或是線上論壇等許多領域都有廣泛的應用;其目的在於依照使用者的查詢(問題)來提供相對應最適合的答案。至今,已有出數種FAQ檢索的策略被提出,像是透過比較使用者查詢和標準問句的相似度、使用者查詢與標準問句對應的答案之間相關性,或是將使用者查詢做分類。因此,也有許多新穎的基於上下文的深層類神經網路語言模型被用於以實現上述策略;例如,BERT(Bidirectional Encoder Representations from Transformers),以及它的延伸像是K-BERT或是Sentence-BERT等。儘管BERT以及它的延伸在FAQ檢索任務上已獲得不錯的效果,但是對於需要一般領域知識的FAQ任務仍有改進空間。因此,本論文中總共分成五大階段做研究。首先探討三種不同FAQ檢索策略同時比較不同策略和方法的結合在FAQ檢索任務之表現。第二,討論如何透過使用知識圖譜等的額外資訊來強化BERT在FAQ檢索任務上之效能,並提出利用非監督式的知識圖譜注入增進模型。第三,透過監督式方法和非監督式方法結合來改進FAQ檢索多種答案型態造成模型效果不佳之情形。第四,透過投票機制(voting mechanism)做重新排序再次改良模型效果。最後,我們透過圖卷積神經網路(Graph Convolutional Network, GCN)結合上下文語言模型(BERT)的方式使得模型可以透過建立異質圖(Heterogeneous graph)考慮到查詢(問題)之間的關聯性。我們在中文臺北市政府問答語料(TaipeiQA)進行一連串的實驗同時針對資料擴增(Data augmentation)的方法做研究探討。由實驗結果顯示,我們所提出的方法可以使得一般的FAQ檢索應用有某些程度上效果的提升。