理學院

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/3

學院概況

理學院設有數學系、物理學系、化學系、生命科學系、地球科學系、資訊工程學系6個系(均含學士、碩士及博士課程),及科學教育研究所、環境教育研究所、光電科技研究所及海洋環境科技就所4個獨立研究所,另設有生物多樣性國際研究生博士學位學程。全學院專任教師約180人,陣容十分堅強,無論師資、學術長現、社會貢獻與影響力均居全國之首。

特色

理學院位在國立臺灣師範大學分部校區內,座落於臺北市公館,佔地約10公頃,是個小而美的校園,內含國際會議廳、圖書館、實驗室、天文臺等完善設施。

理學院創院已逾六十年,在此堅固基礎上,理學院不僅在基礎科學上有豐碩的表現,更在臺灣許多研究中獨占鰲頭,曾孕育出五位中研院院士。近年來,更致力於跨領域研究,並在應用科技上加強與業界合作,院內教師每年均取得多項專利,所開發之商品廣泛應用於醫、藥、化妝品、食品加工業、農業、環保、資訊、教育產業及日常生活中。

在科學教育研究上,臺灣師大理學院之排名更高居世界第一,此外更有獨步全臺的科學教育中心,該中心就中學科學課程、科學教與學等方面從事研究與推廣服務;是全國人力最充足,設備最完善,具有良好服務品質的中心。

在理學院紮實、多元的研究基礎下,學生可依其性向、興趣做出寬廣之選擇,無論對其未來進入學術研究領域、教育界或工業界工作,均是絕佳選擇。

Browse

Search Results

Now showing 1 - 8 of 8
  • Item
    比較Gumbel和KataGo方法提升AlphaZero在外圍開局五子棋的訓練效能
    (2023) 黃得為; Huang, De-Wei
    本研究的目的是探討透過比較 KataGo 和 Gumbel 這兩種方法來儘量減少資 源的數量並保持或提升訓練的效率。KataGo 是一個改良版的 AlphaZero 演算法, 其作者使用了更有效率的訓練算法和重新設計的神經網路架構,並宣稱其訓練 速度比 AlphaZero 快50倍。而 Gumbel 方法則是 DeepMind 在2022年提出的一種方 法,可以在展開蒙地卡羅樹搜索(Monte Carlo Tree Search)時只需展開極少數節點 即可訓練出遠超在相同條件下其他已知演算法的效果。本研究使用這兩種方法應用在提升 AlphaZero 在外圍開局五子棋的棋力,並 比較這兩種方法的優劣和效果。實驗結果顯示,使用 Gumbel 和 KataGo 都可以 有效提升 AlphaZero 在訓練外圍開局五子棋上的效能。並且通過實驗發現,在相 同的訓練代數情況下,KataGo 所訓練出來的棋力比 Gumbel 好。但在相同短期時 間內的訓練中 Gumbel 所訓練出來的棋力比 KataGo 好。在本研究中,我們除了探討 AlphaZero、KataGo 和 Gumbel 演算法的改進外, 還額外討論了兩種提升自我對弈速度的方法以及兩種改進訓練效能的通用方法。首先,我們實作了兩種方法來提升自我對弈速度,並對三種演算法進行了 測試。通過實驗,我們發現這兩種方法的應用能夠平均提升自我對弈速度13.16 倍。這是一個顯著的改善,有效地節省了訓練時間。此外,我們還提出了兩種通用的方法來改進 AlphaZero、KataGo 和 Gumbel 的訓練效能。透過這兩種方法的應用,我們獲得了不錯的結果。這些方法不僅 提升了演算法的訓練效率,還改善了模型的學習能力和準確性。這些結果顯示出,改良 AlphaZero 的 KataGo 以及 Gumbel 方法可以顯著提升外圍開局五子棋 AI 的訓練效果和速度,並且減少所需的訓練資源。這樣的技術 創新可以讓更多的研究者參與到強化學習的研究中,並推動人工智慧在遊戲和 其他領域的發展。
  • Item
    基於人體姿勢估計及壓力感測器數值之瑜珈動作分析系統
    (2023) 廖奕泓; Liao, I-Hung
    近年來因應新型冠狀病毒(Coronavirus disease 2019, COVID-19)的爆發,居家運動風潮隨之興起,瑜珈(Yoga)這項運動不受地點限制且不需要特殊的運動器材,對於舒緩因居家上班與上課導致的緊繃肌肉有相當好的效果,因此瑜珈成為許多人居家運動的首要選擇。瑜珈這項運動講求不光是要保持姿勢標準,保持身軀平衡也是一大重點,但對於瑜珈初學者在家自主練習時,只透過範例影片做練習往往無法抓到該姿勢的重點,導致練習成效不佳,沒有訓練到正確的部位。因此本研究透過影像與壓力感測器量化瑜珈教練的姿勢數據,藉此分析使用者的姿勢。首先透過影像分類器分辨使用者的姿勢,最後評估出姿勢標準度、身軀穩定度與重心穩定度三個要點,不但可以幫助使用者在家自主練習,也可輔助瑜珈教練的教學。
  • Item
    基於圖神經網路之假新聞偵測研究
    (2023) 姚秉均; Yao, Bing-Jun
    在現今互聯網時代,隨著網路技術不斷發展,使得我們在閱覽資訊上也越來越便利,但與此同時,假新聞也藉著技術發展的順風車變得更容易生產傳播以及造成影響。所以本人便打算做和假新聞辨識相關的研究,找到較好的假新聞辨識的方法並提升假新聞辨識的準確率。由於看到CompareNet這一圖神經網路模型對於假新聞的辨識相較其他基礎方法效果更好。因此本研究是以CompareNet這一研究為基礎,基於LUN(Labeled Unreliable News Dataset)語料庫中的LUN-train語料庫創建了一個含有普通名詞、複數名詞、專有名詞、動詞、形容詞、副詞的知識庫,並將該知識庫和CompareNet這一研究相結合,使用LUN語料庫中的LUN-train語料庫來訓練模型、使用SLN(Satirical and Legitimate News Database)以及LUN語料庫中的LUN-test語料庫來對模型進行測試,提升假新聞辨識的準確率。
  • Item
    MuZero 演算法結合連續獲勝走步改良外圍開局五子棋程式
    (2022) 饒鏞; Jao, Yung
    2019年,DeepMind所開發的MuZero演算法使用「零知識」學習,將人工智慧帶往更加通用的研究領域。由於以此演算法所開發的Muzero-general原始版本外五棋程式,其模型訓練時只估計遊戲的結束狀態,增添了許多訓練時的不確定性,於是本研究嘗試以連續獲勝走步改良此外五棋程式。迫著走步是外五棋遊戲當中非常重要的獲勝手段,連續獲勝走步則是在正確使用迫著走步後,所得出的獲勝走步。本研究透過連續獲勝走步原則,進一步以對局過程中是否有提供以迫著搜索得出之連續獲勝走步,以及不同的迫著搜索設計結合不同情況的連續獲勝走步獎勵,設計了三種不同的改良方法。實驗結果表明,在相同的訓練時間下,三種方法均成功對原始版本進行改良,其中採用加入主動進攻走步之迫著搜索設計為棋力最強的方法。關鍵詞 : MuZero、神經網路、迫著搜索、連續獲勝走步
  • Item
    AlphaZero演算法結合快贏策略或迫著空間實現於五子棋
    (2020) 劉浩萱; Liu, Hao-Hsuan
    AlphaZero是一個通用的強化式學習之演算法,除了遊戲規則外毫無人類知識,經過訓練後會有極佳的結果。為了要讓此架構在訓練初期,就能夠成功學習到五子棋所需的獲勝資訊,本研究展示了快贏策略(Quick Win)與迫著空間。 快贏策略旨在讓類神經網路學習到快贏的價值,並且在各走步勝率相同時,能更傾向選擇可以快速獲得勝利的走步;迫著空間則是針對盤面的迫著做搜索,讓能產生迫著走步的資訊被類神經網路學習,以縮短訓練時間。 本研究以四種不同的實驗方式,包含線性距離權重、指數距離權重、結合迫著搜尋於距離權重,以及結合迫著搜尋於蒙地卡羅樹搜索法的方式,觀察AlphaZero為設計基礎的人工智慧模型,在對弈時是否因為選擇了更快獲勝的棋局走步或學會形成迫著,而有效增強棋力。
  • Item
    圍棋詰棋教學系統之設計及研發
    (2020) 吳冠毅; Wu, Guan-Yi
      圍棋是一項歷史悠久且對局複雜度較高的遊戲,近年來電腦對局遊戲領域發展逐漸成熟,人工智慧逐漸克服當初認為較複雜的賽局遊戲。然而,隨著棋類遊戲達到人類難以企及的程度時,人類也發現到無法理解電腦為何這樣下棋的問題。現有的圍棋軟體絕大部分僅能提供人類形勢判斷、勝率分析、變化圖等功能,於教學部分尚有一段需要努力的空間。   本研究針對電腦圍棋詰棋教學系統,研發一套方法,讓電腦學習如何判斷盤面落子原因及其目的性。我們先將人類知識透過人工註記的方式,將每個盤面的每手棋標記,透過卷積神經網路技術將人類知識做學習後,再替人類標記每手棋的名稱以及其目的為何。   在實作上,我們蒐集1500題詰棋題目,先分析並記錄每一局詰棋的每手棋之名稱、目的性,透過監督式學習訓練神經網路。最後可利用此系統將新的詰棋棋局的棋步內容,以 SGF (Smart Game Format) 檔案反饋予使用者,藉此達到圍棋教學的效果,期望在電腦圍棋教學上貢獻棉薄之力。
  • Item
    Twitter使用者之立場偵測:基於目標集子集的分而治技術應用於深度學習方法
    (2018) 張瀞云; Chang, Ching-Yun
      「立場」這個概念是模糊的。在人們用文字表達的敘述裡,可能包含正向或負向的情緒詞彙、肯定或否定的語氣,但這些特徵都不是直接與立場相關聯。人們可以透過支持一個對象來反對特定目標(明喻),也可以藉由反諷一個對象來反對特定目標(暗喻)。在本研究中,將已標記立場標籤、來自Twitter使用者所撰寫的推文(Tweet)當作訓練資料,使用監督式學習的方式訓練深度神經網路(Deep Neural Network)。   本論文提出了一個新的訓練方法,將訓練資料依據主題(Target)分割成五個子集,這五個子集作為主題集(Target Set)的元素,然後以這個主題集的所有子集(Subsets of the Target Set)當作訓練資料來訓練模型。換句話說,即為相異主題間的搭配訓練,本文稱之為“組合式學習(Combination Learning)"。所有子集的組合式學習完成後,再從中挑選出對於每個主題表現最佳的模型,最後整合其結果,此方式稱為“分而治之(Divide-and-Conquer)"。   在SemEval 2016 Task 6之子任務A中,本研究使用監督式框架來偵測Twitter使用者的立場,實驗結果的F1-score為70.24%,優於所有此任務的參賽隊伍。