理學院

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/3

學院概況

理學院設有數學系、物理學系、化學系、生命科學系、地球科學系、資訊工程學系6個系(均含學士、碩士及博士課程),及科學教育研究所、環境教育研究所、光電科技研究所及海洋環境科技就所4個獨立研究所,另設有生物多樣性國際研究生博士學位學程。全學院專任教師約180人,陣容十分堅強,無論師資、學術長現、社會貢獻與影響力均居全國之首。

特色

理學院位在國立臺灣師範大學分部校區內,座落於臺北市公館,佔地約10公頃,是個小而美的校園,內含國際會議廳、圖書館、實驗室、天文臺等完善設施。

理學院創院已逾六十年,在此堅固基礎上,理學院不僅在基礎科學上有豐碩的表現,更在臺灣許多研究中獨占鰲頭,曾孕育出五位中研院院士。近年來,更致力於跨領域研究,並在應用科技上加強與業界合作,院內教師每年均取得多項專利,所開發之商品廣泛應用於醫、藥、化妝品、食品加工業、農業、環保、資訊、教育產業及日常生活中。

在科學教育研究上,臺灣師大理學院之排名更高居世界第一,此外更有獨步全臺的科學教育中心,該中心就中學科學課程、科學教與學等方面從事研究與推廣服務;是全國人力最充足,設備最完善,具有良好服務品質的中心。

在理學院紮實、多元的研究基礎下,學生可依其性向、興趣做出寬廣之選擇,無論對其未來進入學術研究領域、教育界或工業界工作,均是絕佳選擇。

Browse

Search Results

Now showing 1 - 3 of 3
  • Item
    點格棋中小盤面模型取代大盤面模型訓練之可行性研究
    (2024) 劉怡汎; Liu, Yi-Fan
    點格棋(Dots and Boxes)是款零和、完全資訊並公正的雙人遊戲,雖然棋盤小卻有較高的複雜度。本論文以3×3盤面的點格棋作為研究主題,實現訓練好的小盤面的AlphaZero神經網路模型取代大盤面的AlphaZero神經網路模型。在實作上,我們採用基於AlphaGo Zero論文實現的AlphaZero General的開源框架專案,透過方便理解的Python開源專案,讓使用者可以輕鬆的在AlphaGo Zero的架構上實作遊戲及訓練神經網路,省去從頭開始開發的成本,能較專注於其他研究中。從實驗結果可以得知,在1天、2天及3天的訓練神經網路時間下,3×3盤面AlphaZero General代理人以平均處理合併policy的方式,在與相同訓練時間的4×4盤面AlphaZero General代理人的對戰中,分別取得64%、58%、57%的勝率。因此在訓練時間限制3天的情況下,可以使用訓練好的小盤面的AlphaZero神經網路模型取代大盤面的AlphaZero神經網路模型。
  • Item
    六貫棋遊戲實作與強化學習應用
    (2019) 王鈞平; Wang, Chun-Ping
    六貫棋,又被稱作納許棋,是一個雙人對局遊戲,最初是在1942年12月26日在丹麥報紙Politiken發表的一篇文章中出現,被稱作Polygon。於1948年時,由數學家約翰·福布斯·納許重新獨立發明出來,在最初被稱作納許棋(Nash)。後來於1952年遊戲玩具製造商Parker Brothers將其作為遊戲發行,將此遊戲命名為Hex。 在六貫棋的棋盤上由雙方輪流落子,雙方各擁有一組對邊,藉由佔領格子的方式將自己方的兩條邊連接起來以獲得勝利。在六貫棋當中已被約翰·福布斯·納許使用策略偷取的方式證明出六貫棋在先手方擁有必勝策略,而在路數小於8的盤面已經被完全破解出所有的必勝策略。 本研究試圖利用AlphaZero論文當中所提到的訓練方式,利用蒙地卡羅樹搜尋演算法搭配類神經網路訓練,嘗試藉由強化學習,從零人類知識開始只提供遊戲規則的方式,並針對3至4路的六貫棋棋盤,來訓練出能夠自我學習出完全破解3至4路的六貫棋的程式。依循此模式,在計算資源更為豐沛時,未來可以往更高路數的六貫棋實驗其破解的可能性。
  • Item
    基於AlphaZero General Framework實現Breakthrough遊戲
    (2019) 吳天宇; Wu, Tian-Yu
    在現今人工智慧電腦對局領域中,多數棋類的頂尖程式,都以AlphaZero的開發框架獨占鰲頭,棋力遠超以往傳統的程式,然而此種架構中有許多研發內容並不因不同棋類的規則而有所不同,當需要研發新種類的對局程式時將會有許多重複的前置開發成本。 故本論文中以C++實作遊戲規則及搜尋樹處理,以Python與TensorFlow套件實作類神經網絡訓練,兩者結合出易讀且運行效率較高的通用型AlphaZero框架的程式,此框架能夠讓使用者只需更改遊戲規則,即可開始AlphaZero的訓練模式。相較於GitHub相關開源碼中,Surag Nair先生全部以Python語言開發的alpha-zero-general程式,在突圍棋(Breakthrough)運行上,單執行緒速度效能可提升77.8%。 此外,本論文另外實作並測試三個可能的改良方法,用於提升整體AlphaZero訓練流程的棋力。其修改點並不因不同棋類規則而有所不同,目的在於讓後續能套用至通用型AlphaZero框架的棋類也能夠受益。分別是對訓練資料進行增量的Replay方法、應用MMoE(Multi-Gate Mixture-of-Experts)類神經網路架構於AlphaZero中欲增強網路模型的預測能力,以及利用改良原版AlphaZero中如何贏得越快越好的Quick Win方法,將針對類神經網路的Label更改標記方式與蒙地卡羅樹搜尋演算法進行改良。