理學院

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/3

學院概況

理學院設有數學系、物理學系、化學系、生命科學系、地球科學系、資訊工程學系6個系(均含學士、碩士及博士課程),及科學教育研究所、環境教育研究所、光電科技研究所及海洋環境科技就所4個獨立研究所,另設有生物多樣性國際研究生博士學位學程。全學院專任教師約180人,陣容十分堅強,無論師資、學術長現、社會貢獻與影響力均居全國之首。

特色

理學院位在國立臺灣師範大學分部校區內,座落於臺北市公館,佔地約10公頃,是個小而美的校園,內含國際會議廳、圖書館、實驗室、天文臺等完善設施。

理學院創院已逾六十年,在此堅固基礎上,理學院不僅在基礎科學上有豐碩的表現,更在臺灣許多研究中獨占鰲頭,曾孕育出五位中研院院士。近年來,更致力於跨領域研究,並在應用科技上加強與業界合作,院內教師每年均取得多項專利,所開發之商品廣泛應用於醫、藥、化妝品、食品加工業、農業、環保、資訊、教育產業及日常生活中。

在科學教育研究上,臺灣師大理學院之排名更高居世界第一,此外更有獨步全臺的科學教育中心,該中心就中學科學課程、科學教與學等方面從事研究與推廣服務;是全國人力最充足,設備最完善,具有良好服務品質的中心。

在理學院紮實、多元的研究基礎下,學生可依其性向、興趣做出寬廣之選擇,無論對其未來進入學術研究領域、教育界或工業界工作,均是絕佳選擇。

Browse

Search Results

Now showing 1 - 10 of 13
  • Item
    比較Gumbel和KataGo方法提升AlphaZero在外圍開局五子棋的訓練效能
    (2023) 黃得為; Huang, De-Wei
    本研究的目的是探討透過比較 KataGo 和 Gumbel 這兩種方法來儘量減少資 源的數量並保持或提升訓練的效率。KataGo 是一個改良版的 AlphaZero 演算法, 其作者使用了更有效率的訓練算法和重新設計的神經網路架構,並宣稱其訓練 速度比 AlphaZero 快50倍。而 Gumbel 方法則是 DeepMind 在2022年提出的一種方 法,可以在展開蒙地卡羅樹搜索(Monte Carlo Tree Search)時只需展開極少數節點 即可訓練出遠超在相同條件下其他已知演算法的效果。本研究使用這兩種方法應用在提升 AlphaZero 在外圍開局五子棋的棋力,並 比較這兩種方法的優劣和效果。實驗結果顯示,使用 Gumbel 和 KataGo 都可以 有效提升 AlphaZero 在訓練外圍開局五子棋上的效能。並且通過實驗發現,在相 同的訓練代數情況下,KataGo 所訓練出來的棋力比 Gumbel 好。但在相同短期時 間內的訓練中 Gumbel 所訓練出來的棋力比 KataGo 好。在本研究中,我們除了探討 AlphaZero、KataGo 和 Gumbel 演算法的改進外, 還額外討論了兩種提升自我對弈速度的方法以及兩種改進訓練效能的通用方法。首先,我們實作了兩種方法來提升自我對弈速度,並對三種演算法進行了 測試。通過實驗,我們發現這兩種方法的應用能夠平均提升自我對弈速度13.16 倍。這是一個顯著的改善,有效地節省了訓練時間。此外,我們還提出了兩種通用的方法來改進 AlphaZero、KataGo 和 Gumbel 的訓練效能。透過這兩種方法的應用,我們獲得了不錯的結果。這些方法不僅 提升了演算法的訓練效率,還改善了模型的學習能力和準確性。這些結果顯示出,改良 AlphaZero 的 KataGo 以及 Gumbel 方法可以顯著提升外圍開局五子棋 AI 的訓練效果和速度,並且減少所需的訓練資源。這樣的技術 創新可以讓更多的研究者參與到強化學習的研究中,並推動人工智慧在遊戲和 其他領域的發展。
  • Item
    基於人體姿勢估計及壓力感測器數值之瑜珈動作分析系統
    (2023) 廖奕泓; Liao, I-Hung
    近年來因應新型冠狀病毒(Coronavirus disease 2019, COVID-19)的爆發,居家運動風潮隨之興起,瑜珈(Yoga)這項運動不受地點限制且不需要特殊的運動器材,對於舒緩因居家上班與上課導致的緊繃肌肉有相當好的效果,因此瑜珈成為許多人居家運動的首要選擇。瑜珈這項運動講求不光是要保持姿勢標準,保持身軀平衡也是一大重點,但對於瑜珈初學者在家自主練習時,只透過範例影片做練習往往無法抓到該姿勢的重點,導致練習成效不佳,沒有訓練到正確的部位。因此本研究透過影像與壓力感測器量化瑜珈教練的姿勢數據,藉此分析使用者的姿勢。首先透過影像分類器分辨使用者的姿勢,最後評估出姿勢標準度、身軀穩定度與重心穩定度三個要點,不但可以幫助使用者在家自主練習,也可輔助瑜珈教練的教學。
  • Item
    MuZero 演算法結合連續獲勝走步改良外圍開局五子棋程式
    (2022) 饒鏞; Jao, Yung
    2019年,DeepMind所開發的MuZero演算法使用「零知識」學習,將人工智慧帶往更加通用的研究領域。由於以此演算法所開發的Muzero-general原始版本外五棋程式,其模型訓練時只估計遊戲的結束狀態,增添了許多訓練時的不確定性,於是本研究嘗試以連續獲勝走步改良此外五棋程式。迫著走步是外五棋遊戲當中非常重要的獲勝手段,連續獲勝走步則是在正確使用迫著走步後,所得出的獲勝走步。本研究透過連續獲勝走步原則,進一步以對局過程中是否有提供以迫著搜索得出之連續獲勝走步,以及不同的迫著搜索設計結合不同情況的連續獲勝走步獎勵,設計了三種不同的改良方法。實驗結果表明,在相同的訓練時間下,三種方法均成功對原始版本進行改良,其中採用加入主動進攻走步之迫著搜索設計為棋力最強的方法。關鍵詞 : MuZero、神經網路、迫著搜索、連續獲勝走步
  • Item
    基於人體姿勢估計之跆拳道側踢分析
    (2023) 翁驊成; Weng, Hua-Cheng
    在跆拳道品勢 (Taekwondo Poomsae) 比賽或訓練中,評估該運動表現唯基於專家及教練的觀察,並根據其自身經驗會有不同的想法,存在多種公平性問題,此外,教練也無法全天候指導所有學員,人們對於量化評價方法和工具之需求日益增加。然而,跆拳道快速的肢體動作與結構極端繁複的技術,使量化困難且不易評估。跆拳道品勢單元技術中,側踢 (Side Kick) 屬於較複雜、評分比重較高的項目,因此,本論文針對側踢先行試驗,我們以臺北市立龍山國中以及國立臺灣師範大學的跆拳道品勢選手作為研究對象,並參考專家建議之評分標準,提出基於人體姿勢估計 (Human Pose Estimation) 之跆拳道側踢分析,通過專業認證的跆拳道側踢評分系統 (Taekwondo Side Kick Assessment System, SideKick),能夠有效地量化選手運動數據,分析並評估其側踢表現。 本研究中,我們首先建立了具高度公信力的跆拳道側踢資料集,由專業品勢教練進行動作質量評分;接著透過人體姿勢估計的方式,偵測人體關節點座標,精確獲取肢體運動角度及高度變化數據,使得運動特徵不易受場景影響,將攝影鏡頭校正難度降低;最後,我們參考專家提供之側踢建議量化特徵,分析各特徵的重要性排序,並利用機器學習的方式,訓練運動時空特徵及專家建議特徵,來預測選手整體側踢表現分數。 實驗以均方根誤差與交叉驗證評估多種回歸模型方法,最終選擇卷積神經網路模型,作為系統之評分模組。結果顯示實際應用之誤差為0.69,經信度檢驗,其結果也達顯著相關,在容許誤差為1的範圍內,準確率達86%。本研究提出之SideKick系統不需花費大量金錢及人力,且錄製設備取得容易。學員們能藉由本系統了解自身能力,教練們也可以在不限任何時間或地點下指導學員,提升團體訓練效益,並為未來遠程跆拳道品勢評價系統奠定基礎。
  • Item
    深度學習模型Schnet的分析、簡化與改進方法探討
    (2022) 洪聖軒; Hung, Sheng-Hsuan
    在深度學習應用化學領域的研究中,以對分子特定性質的高準確度、低計算成本預測的研究一直是具有高關注度的研究方向。在本研究中所使用的Schnet便是對此研究方向提出的一個相對成熟的深度學習模型,具有能預測QM9數據集中分子包含HOMO能量 (EH)、LUMO能量 (EL)以及兩者能量差距(EG)在內的性質平均絕對誤差達到接近或小於1 kcal/mol的準確度,並且其計算成本遠低於經典的DFT計算。針對Schnet的優秀預測效果,本研究對於其架構的主要部分進行分析,得到類似於誘導效應的資料關聯。之後,利用QM9數據集中的所具有的分子SMILES,產生鍵步資訊並替換Schnet架構中的一部份以達成輸入資訊的簡化,最終獲得了與原始Schnet相比大約1-2倍左右的平均絕對誤差。在架構的更改上,進一步利用來自Deep4Chem的分子數據集來測試Schnet經過簡化之後的架構其預測螢光放光波長、吸光波長以及量子產率的能力,然後再外加一層用以對分子環境不同作為標示的嵌入層,將分子環境的資訊輸入模型中,以獲得更好的預測結果。在對Schnet模型的後續改進中,對Deep4Chem分子數據集中的螢光分子之吸光與放光波長的預測,其平均絕對誤差達到了0.131 eV與0.087 eV;而在Schnet中加入一層嵌入層之後,對吸光與放光波長的預測之平均絕對誤差則被降低到了0.083 eV與0.082 eV。在預測量子產率的表現上,兩種模型分別的平均絕對誤差為0.336與0.292。
  • Item
    以深度學習為基礎之視覺式行人危及行車安全程度評估系統
    (2021) 曾永權; Tseng, Yung-Chuan
    交通工具的進步使往返各地越來越方便,但也帶來許多交通事故。根據台灣內政部統計年報[4]統計,諸多交通事故造成台灣每年數十萬人傷亡,其中又以道路上弱勢行人受到的傷害為大。故本研究提出以深度學習為基礎之視覺式行人危及行車安全程度評估系統。該系統利用行車紀錄器影片作為輸入,用於主動式安全駕駛輔助,辨識行人危及行車安全程度,提前警告駕駛注意行人,希望能藉此降低車禍事故發生。本研究首先對行人危及行車安全程度進行分析以及定義,將行人危及行車安全程度依據行人與攝影機距離、行人在影像中位置、行人面朝方位、行人是否移動、是否逆光5種條件分為14種情況,並將這14種情況對應到安全、低危險、中危險、高危險共4種類別。之後,本系統使用YOLOv4類神經網路模型作為骨架,進行YOLOv4的組合測試,並以前、後處理的方式進行改良。本研究最終提出Single YOLOv4、Two-stage Training YOLOv4以及Parallel YOLOv4三種流程。Single YOLOv4直接以行人危及行車安全程度進行訓練,預測時加入後處理方法刪除過度重疊的預測框。Two-stage Training YOLOv4先針對影像中「人」進行訓練,再利用此權重學習行人危及行車安全程度,預測時利用第二階段學習到的權重進行預測並刪除過度重疊的預測框。Parallel YOLOv4訓練及測試時採用兩個YOLOv4,一YOLOv4以「人」進行訓練,一YOLOv4以行人危及行車安全程度進行訓練,預測時將兩個YOLOv4各自過度重疊的預測框刪除後合併預測結果。本研究使用的測試資料庫之影片皆為作者親自拍攝,拍攝地區為新北市中永和地區,命名為Pedestrian-Endanger-Driving-Safety Evaluation Dataset。本研究所開發的行人危及行車安全程度系統將輸出一段影片,影片中含有行人的預測框,預測框上方有預測之危及行車安全程度,並根據4種不同危及行車安全類別,給予每個預測框不同顏色,用於區分危及行車安全程度。本系統以F1-measure作為正確率評估方式,最終獲得71.2%的正確率。
  • Item
    圍棋詰棋教學系統之設計及研發
    (2020) 吳冠毅; Wu, Guan-Yi
      圍棋是一項歷史悠久且對局複雜度較高的遊戲,近年來電腦對局遊戲領域發展逐漸成熟,人工智慧逐漸克服當初認為較複雜的賽局遊戲。然而,隨著棋類遊戲達到人類難以企及的程度時,人類也發現到無法理解電腦為何這樣下棋的問題。現有的圍棋軟體絕大部分僅能提供人類形勢判斷、勝率分析、變化圖等功能,於教學部分尚有一段需要努力的空間。   本研究針對電腦圍棋詰棋教學系統,研發一套方法,讓電腦學習如何判斷盤面落子原因及其目的性。我們先將人類知識透過人工註記的方式,將每個盤面的每手棋標記,透過卷積神經網路技術將人類知識做學習後,再替人類標記每手棋的名稱以及其目的為何。   在實作上,我們蒐集1500題詰棋題目,先分析並記錄每一局詰棋的每手棋之名稱、目的性,透過監督式學習訓練神經網路。最後可利用此系統將新的詰棋棋局的棋步內容,以 SGF (Smart Game Format) 檔案反饋予使用者,藉此達到圍棋教學的效果,期望在電腦圍棋教學上貢獻棉薄之力。
  • Item
    利用AlphaZero框架實作與改良MiniShogi程式
    (2020) 陳品源; Chen, Pin-Yuan
    2016年3月,DeepMind的AlphaGo程式以4:1的結果擊敗了當時韓國職業圍棋9段棋士李世乭,讓電腦對局的AI程式在強化學習的路上取得了巨大的突破與成就。隨後2017年10月更提出了AlphaGo Zero方法,以100:0的比數戰勝了原本的AlphaGo Lee程式,也證明了不用人類的棋譜當作先驗知識,就可以訓練出比人類還要更強的圍棋程式。而DeepMind最終把AlphaGo Zero方法一般化成了AlphaZero方法,也訓練出了當今世界棋力最強的西洋棋與將棋程式。但相對的,DeepMind也運用了非常龐大的運算資源來訓練,才得到了最強的棋力。 本論文所研究的棋類為1970年楠本茂信所發明的5五將棋,5五將棋是一種將棋變體,特色是棋盤大小比本將棋還要小,只有5×5的盤面,將棋則有9×9,所以5五將棋是很適合一般人在硬體資源有限的情況下,來實作電腦對局的AI程式項目。 本實驗是使用AlphaZero的演算法,搭配AlphaZero General框架來實作出使用神經網路搭配強化學習來訓練的AI程式,而我們也搭配了一些已知的優勢策略做改良,讓我們可以在有限的硬體資源下,增進神經網路模型的訓練效率。 在5五將棋的訓練中,我們使用兩種方法去做改良,第一種方法是依盤面的重要性對樣本做採樣,設定中局會比終盤與開局還要高的採樣機率,期待能讓神經網路學習下中盤棋局時能比一般的版本下的更好。 第二種方式是用能贏直接贏的方式去訓練,藉由提前一回合看到終局盤面,來達到Winning Attack的效果,因為MCTS在下棋時,即便是遇到能分出勝負的走步,不一定會走出能分出勝負的那一步,導致神經網路權重會收斂的很慢,而藉由此方法,可以比一般的訓練方法還要快的收斂。 本研究所採用的兩個方法是一個成功一個失敗的結果,以實驗數據來說,如果取樣取的好,是有機會提升棋力的,但數據的表現上除了一組數據外,其他數據皆不盡理想;而Winning Attack的棋力提升的數據就非常顯著了,不過兩種方法搭配起來一起訓練時,雖然也會提升棋力,但是兩個方法沒有互相加成的效果。
  • Item
    基於強化學習之Surakarta棋程式開發與研究
    (2019) 陳毅泰; Chen, Yi-Tai
    Surakarta棋是起源於印尼爪哇島的一種雙人零和遊戲,原名Permainan,在印尼文是遊戲之意,後來由法國人命名為Surakarta,取自當地地名「梭羅」。遊戲中獨一無二的吃子方法是這種棋的最大亮點,透過棋盤外圍的環狀構造,將對手的棋子一網打盡後,方可獲得最後的勝利。 除了現實的遊戲外,Surakarta棋也是Computer Olympiad定期舉辦的比賽項目之一,歷年來誕生了不少棋力高強的程式。而這兩年的AlphaGo和AlphaZero將電腦對局推向了新的里程碑,也有了新的契機,希望能夠將Surakarta棋程式的棋力向上提升。 本研究將利用AlphaZero的架構,搭配不同的參數及架構上的改良,訓練及實做Surakarta棋的AI和視覺化平台。除了單一神經網路的版本,研究中也嘗試了一種新的多神經網路架構,將遊戲的過程分成三階段並訓練三種不同的神經網路來各司其職,分別為「開局網路」、「中局網路」和「殘局網路」。其中,使用殘局網路版本的AlphaZero算法和DTC殘局庫做了交叉驗證,顯示其正確率高達99%。
  • Item
    基於AlphaZero作法之國際跳棋程式開發及研究
    (2020) 簡沅亨; Chien, Yuan-Heng
    國際跳棋是由民族跳棋演變而來的。據說在一七二三年,居住在法國的一名波蘭軍官把六十四格的棋盤改為一百格,因此又被稱為「波蘭跳棋」。國際跳棋擁有flying king和連吃的特殊規則,使得下法有趣多變,深受大眾的喜愛。 近年來,AlphaZero演算法在多種棋類AI訓練上,都獲得極大的成功。因此,本研究使用AlphaZero的架構來實作國際跳棋的AI。然而,國際跳棋擁有連吃路徑的問題,無法以單次神經網路輸出來完整表達連吃的路徑,所以本研究設計連續走步,藉由神經網路的多次走步輸出來完整描述連吃的路徑。 為了提高國際跳棋AlphaZero的訓練效率,本研究使用大贏策略來加速訓練,讓神經網路能夠往大贏的方向去訓練。經過100迭代訓練之後,使用大贏策略訓練的神經網路模型與原始AlphaZero版本訓練的神經網路模型相比,擁有較高的勝率。