理學院
Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/3
學院概況
理學院設有數學系、物理學系、化學系、生命科學系、地球科學系、資訊工程學系6個系(均含學士、碩士及博士課程),及科學教育研究所、環境教育研究所、光電科技研究所及海洋環境科技就所4個獨立研究所,另設有生物多樣性國際研究生博士學位學程。全學院專任教師約180人,陣容十分堅強,無論師資、學術長現、社會貢獻與影響力均居全國之首。
特色理學院位在國立臺灣師範大學分部校區內,座落於臺北市公館,佔地約10公頃,是個小而美的校園,內含國際會議廳、圖書館、實驗室、天文臺等完善設施。
理學院創院已逾六十年,在此堅固基礎上,理學院不僅在基礎科學上有豐碩的表現,更在臺灣許多研究中獨占鰲頭,曾孕育出五位中研院院士。近年來,更致力於跨領域研究,並在應用科技上加強與業界合作,院內教師每年均取得多項專利,所開發之商品廣泛應用於醫、藥、化妝品、食品加工業、農業、環保、資訊、教育產業及日常生活中。
在科學教育研究上,臺灣師大理學院之排名更高居世界第一,此外更有獨步全臺的科學教育中心,該中心就中學科學課程、科學教與學等方面從事研究與推廣服務;是全國人力最充足,設備最完善,具有良好服務品質的中心。
在理學院紮實、多元的研究基礎下,學生可依其性向、興趣做出寬廣之選擇,無論對其未來進入學術研究領域、教育界或工業界工作,均是絕佳選擇。
Browse
10 results
Search Results
Item 比較Gumbel和KataGo方法提升AlphaZero在外圍開局五子棋的訓練效能(2023) 黃得為; Huang, De-Wei本研究的目的是探討透過比較 KataGo 和 Gumbel 這兩種方法來儘量減少資 源的數量並保持或提升訓練的效率。KataGo 是一個改良版的 AlphaZero 演算法, 其作者使用了更有效率的訓練算法和重新設計的神經網路架構,並宣稱其訓練 速度比 AlphaZero 快50倍。而 Gumbel 方法則是 DeepMind 在2022年提出的一種方 法,可以在展開蒙地卡羅樹搜索(Monte Carlo Tree Search)時只需展開極少數節點 即可訓練出遠超在相同條件下其他已知演算法的效果。本研究使用這兩種方法應用在提升 AlphaZero 在外圍開局五子棋的棋力,並 比較這兩種方法的優劣和效果。實驗結果顯示,使用 Gumbel 和 KataGo 都可以 有效提升 AlphaZero 在訓練外圍開局五子棋上的效能。並且通過實驗發現,在相 同的訓練代數情況下,KataGo 所訓練出來的棋力比 Gumbel 好。但在相同短期時 間內的訓練中 Gumbel 所訓練出來的棋力比 KataGo 好。在本研究中,我們除了探討 AlphaZero、KataGo 和 Gumbel 演算法的改進外, 還額外討論了兩種提升自我對弈速度的方法以及兩種改進訓練效能的通用方法。首先,我們實作了兩種方法來提升自我對弈速度,並對三種演算法進行了 測試。通過實驗,我們發現這兩種方法的應用能夠平均提升自我對弈速度13.16 倍。這是一個顯著的改善,有效地節省了訓練時間。此外,我們還提出了兩種通用的方法來改進 AlphaZero、KataGo 和 Gumbel 的訓練效能。透過這兩種方法的應用,我們獲得了不錯的結果。這些方法不僅 提升了演算法的訓練效率,還改善了模型的學習能力和準確性。這些結果顯示出,改良 AlphaZero 的 KataGo 以及 Gumbel 方法可以顯著提升外圍開局五子棋 AI 的訓練效果和速度,並且減少所需的訓練資源。這樣的技術 創新可以讓更多的研究者參與到強化學習的研究中,並推動人工智慧在遊戲和 其他領域的發展。Item 基於人體姿勢估計及壓力感測器數值之瑜珈動作分析系統(2023) 廖奕泓; Liao, I-Hung近年來因應新型冠狀病毒(Coronavirus disease 2019, COVID-19)的爆發,居家運動風潮隨之興起,瑜珈(Yoga)這項運動不受地點限制且不需要特殊的運動器材,對於舒緩因居家上班與上課導致的緊繃肌肉有相當好的效果,因此瑜珈成為許多人居家運動的首要選擇。瑜珈這項運動講求不光是要保持姿勢標準,保持身軀平衡也是一大重點,但對於瑜珈初學者在家自主練習時,只透過範例影片做練習往往無法抓到該姿勢的重點,導致練習成效不佳,沒有訓練到正確的部位。因此本研究透過影像與壓力感測器量化瑜珈教練的姿勢數據,藉此分析使用者的姿勢。首先透過影像分類器分辨使用者的姿勢,最後評估出姿勢標準度、身軀穩定度與重心穩定度三個要點,不但可以幫助使用者在家自主練習,也可輔助瑜珈教練的教學。Item 深度學習模型Schnet的分析、簡化與改進方法探討(2022) 洪聖軒; Hung, Sheng-Hsuan在深度學習應用化學領域的研究中,以對分子特定性質的高準確度、低計算成本預測的研究一直是具有高關注度的研究方向。在本研究中所使用的Schnet便是對此研究方向提出的一個相對成熟的深度學習模型,具有能預測QM9數據集中分子包含HOMO能量 (EH)、LUMO能量 (EL)以及兩者能量差距(EG)在內的性質平均絕對誤差達到接近或小於1 kcal/mol的準確度,並且其計算成本遠低於經典的DFT計算。針對Schnet的優秀預測效果,本研究對於其架構的主要部分進行分析,得到類似於誘導效應的資料關聯。之後,利用QM9數據集中的所具有的分子SMILES,產生鍵步資訊並替換Schnet架構中的一部份以達成輸入資訊的簡化,最終獲得了與原始Schnet相比大約1-2倍左右的平均絕對誤差。在架構的更改上,進一步利用來自Deep4Chem的分子數據集來測試Schnet經過簡化之後的架構其預測螢光放光波長、吸光波長以及量子產率的能力,然後再外加一層用以對分子環境不同作為標示的嵌入層,將分子環境的資訊輸入模型中,以獲得更好的預測結果。在對Schnet模型的後續改進中,對Deep4Chem分子數據集中的螢光分子之吸光與放光波長的預測,其平均絕對誤差達到了0.131 eV與0.087 eV;而在Schnet中加入一層嵌入層之後,對吸光與放光波長的預測之平均絕對誤差則被降低到了0.083 eV與0.082 eV。在預測量子產率的表現上,兩種模型分別的平均絕對誤差為0.336與0.292。Item 以深度學習為基礎之視覺式行人危及行車安全程度評估系統(2021) 曾永權; Tseng, Yung-Chuan交通工具的進步使往返各地越來越方便,但也帶來許多交通事故。根據台灣內政部統計年報[4]統計,諸多交通事故造成台灣每年數十萬人傷亡,其中又以道路上弱勢行人受到的傷害為大。故本研究提出以深度學習為基礎之視覺式行人危及行車安全程度評估系統。該系統利用行車紀錄器影片作為輸入,用於主動式安全駕駛輔助,辨識行人危及行車安全程度,提前警告駕駛注意行人,希望能藉此降低車禍事故發生。本研究首先對行人危及行車安全程度進行分析以及定義,將行人危及行車安全程度依據行人與攝影機距離、行人在影像中位置、行人面朝方位、行人是否移動、是否逆光5種條件分為14種情況,並將這14種情況對應到安全、低危險、中危險、高危險共4種類別。之後,本系統使用YOLOv4類神經網路模型作為骨架,進行YOLOv4的組合測試,並以前、後處理的方式進行改良。本研究最終提出Single YOLOv4、Two-stage Training YOLOv4以及Parallel YOLOv4三種流程。Single YOLOv4直接以行人危及行車安全程度進行訓練,預測時加入後處理方法刪除過度重疊的預測框。Two-stage Training YOLOv4先針對影像中「人」進行訓練,再利用此權重學習行人危及行車安全程度,預測時利用第二階段學習到的權重進行預測並刪除過度重疊的預測框。Parallel YOLOv4訓練及測試時採用兩個YOLOv4,一YOLOv4以「人」進行訓練,一YOLOv4以行人危及行車安全程度進行訓練,預測時將兩個YOLOv4各自過度重疊的預測框刪除後合併預測結果。本研究使用的測試資料庫之影片皆為作者親自拍攝,拍攝地區為新北市中永和地區,命名為Pedestrian-Endanger-Driving-Safety Evaluation Dataset。本研究所開發的行人危及行車安全程度系統將輸出一段影片,影片中含有行人的預測框,預測框上方有預測之危及行車安全程度,並根據4種不同危及行車安全類別,給予每個預測框不同顏色,用於區分危及行車安全程度。本系統以F1-measure作為正確率評估方式,最終獲得71.2%的正確率。Item 圍棋詰棋教學系統之設計及研發(2020) 吳冠毅; Wu, Guan-Yi圍棋是一項歷史悠久且對局複雜度較高的遊戲,近年來電腦對局遊戲領域發展逐漸成熟,人工智慧逐漸克服當初認為較複雜的賽局遊戲。然而,隨著棋類遊戲達到人類難以企及的程度時,人類也發現到無法理解電腦為何這樣下棋的問題。現有的圍棋軟體絕大部分僅能提供人類形勢判斷、勝率分析、變化圖等功能,於教學部分尚有一段需要努力的空間。 本研究針對電腦圍棋詰棋教學系統,研發一套方法,讓電腦學習如何判斷盤面落子原因及其目的性。我們先將人類知識透過人工註記的方式,將每個盤面的每手棋標記,透過卷積神經網路技術將人類知識做學習後,再替人類標記每手棋的名稱以及其目的為何。 在實作上,我們蒐集1500題詰棋題目,先分析並記錄每一局詰棋的每手棋之名稱、目的性,透過監督式學習訓練神經網路。最後可利用此系統將新的詰棋棋局的棋步內容,以 SGF (Smart Game Format) 檔案反饋予使用者,藉此達到圍棋教學的效果,期望在電腦圍棋教學上貢獻棉薄之力。Item 利用AlphaZero框架實作與改良MiniShogi程式(2020) 陳品源; Chen, Pin-Yuan2016年3月,DeepMind的AlphaGo程式以4:1的結果擊敗了當時韓國職業圍棋9段棋士李世乭,讓電腦對局的AI程式在強化學習的路上取得了巨大的突破與成就。隨後2017年10月更提出了AlphaGo Zero方法,以100:0的比數戰勝了原本的AlphaGo Lee程式,也證明了不用人類的棋譜當作先驗知識,就可以訓練出比人類還要更強的圍棋程式。而DeepMind最終把AlphaGo Zero方法一般化成了AlphaZero方法,也訓練出了當今世界棋力最強的西洋棋與將棋程式。但相對的,DeepMind也運用了非常龐大的運算資源來訓練,才得到了最強的棋力。 本論文所研究的棋類為1970年楠本茂信所發明的5五將棋,5五將棋是一種將棋變體,特色是棋盤大小比本將棋還要小,只有5×5的盤面,將棋則有9×9,所以5五將棋是很適合一般人在硬體資源有限的情況下,來實作電腦對局的AI程式項目。 本實驗是使用AlphaZero的演算法,搭配AlphaZero General框架來實作出使用神經網路搭配強化學習來訓練的AI程式,而我們也搭配了一些已知的優勢策略做改良,讓我們可以在有限的硬體資源下,增進神經網路模型的訓練效率。 在5五將棋的訓練中,我們使用兩種方法去做改良,第一種方法是依盤面的重要性對樣本做採樣,設定中局會比終盤與開局還要高的採樣機率,期待能讓神經網路學習下中盤棋局時能比一般的版本下的更好。 第二種方式是用能贏直接贏的方式去訓練,藉由提前一回合看到終局盤面,來達到Winning Attack的效果,因為MCTS在下棋時,即便是遇到能分出勝負的走步,不一定會走出能分出勝負的那一步,導致神經網路權重會收斂的很慢,而藉由此方法,可以比一般的訓練方法還要快的收斂。 本研究所採用的兩個方法是一個成功一個失敗的結果,以實驗數據來說,如果取樣取的好,是有機會提升棋力的,但數據的表現上除了一組數據外,其他數據皆不盡理想;而Winning Attack的棋力提升的數據就非常顯著了,不過兩種方法搭配起來一起訓練時,雖然也會提升棋力,但是兩個方法沒有互相加成的效果。Item 基於強化學習之Surakarta棋程式開發與研究(2019) 陳毅泰; Chen, Yi-TaiSurakarta棋是起源於印尼爪哇島的一種雙人零和遊戲,原名Permainan,在印尼文是遊戲之意,後來由法國人命名為Surakarta,取自當地地名「梭羅」。遊戲中獨一無二的吃子方法是這種棋的最大亮點,透過棋盤外圍的環狀構造,將對手的棋子一網打盡後,方可獲得最後的勝利。 除了現實的遊戲外,Surakarta棋也是Computer Olympiad定期舉辦的比賽項目之一,歷年來誕生了不少棋力高強的程式。而這兩年的AlphaGo和AlphaZero將電腦對局推向了新的里程碑,也有了新的契機,希望能夠將Surakarta棋程式的棋力向上提升。 本研究將利用AlphaZero的架構,搭配不同的參數及架構上的改良,訓練及實做Surakarta棋的AI和視覺化平台。除了單一神經網路的版本,研究中也嘗試了一種新的多神經網路架構,將遊戲的過程分成三階段並訓練三種不同的神經網路來各司其職,分別為「開局網路」、「中局網路」和「殘局網路」。其中,使用殘局網路版本的AlphaZero算法和DTC殘局庫做了交叉驗證,顯示其正確率高達99%。Item 基於AlphaZero作法之國際跳棋程式開發及研究(2020) 簡沅亨; Chien, Yuan-Heng國際跳棋是由民族跳棋演變而來的。據說在一七二三年,居住在法國的一名波蘭軍官把六十四格的棋盤改為一百格,因此又被稱為「波蘭跳棋」。國際跳棋擁有flying king和連吃的特殊規則,使得下法有趣多變,深受大眾的喜愛。 近年來,AlphaZero演算法在多種棋類AI訓練上,都獲得極大的成功。因此,本研究使用AlphaZero的架構來實作國際跳棋的AI。然而,國際跳棋擁有連吃路徑的問題,無法以單次神經網路輸出來完整表達連吃的路徑,所以本研究設計連續走步,藉由神經網路的多次走步輸出來完整描述連吃的路徑。 為了提高國際跳棋AlphaZero的訓練效率,本研究使用大贏策略來加速訓練,讓神經網路能夠往大贏的方向去訓練。經過100迭代訓練之後,使用大贏策略訓練的神經網路模型與原始AlphaZero版本訓練的神經網路模型相比,擁有較高的勝率。Item 中國跳棋對弈平台與AI的實作(2019) 陳律濃; Chen, Lu-Nung近年來關於人工智慧的研究如火如荼的湧現,未來電腦的效能越高,相同時間內能處理的資訊量也會越高,人工智慧能解決的問題複雜程度亦會越來越大,例如近年來電腦對局中圍棋與人工智慧的成功結合例子AlphaGo。然而電腦對局的研究若要進展得順利,設計良善的使用者操作介面必不可少,所以本研究針對中國跳棋遊戲設計一個支援多玩家遊戲的自動對弈平台,期望在電腦對局的發展上能貢獻微薄之力。 本研究開發之電腦中國跳棋自動對弈平台利用OpenCV函式庫實作出一個直觀且方便的圖形化使用者操作介面,可以只用滑鼠點選各項功能進行設定並操作棋子。另外平台具備程式偵錯與對戰等主要功能,除了在比賽時能夠使雙方更清楚地檢視遊戲過程並減少手動操作失誤與爭議之外,偵錯時也可以藉由此平台檢視與驗證每一個走步的正確性,預設對戰對手也包含了本研究開發之AI引擎提供開發者測試強度。如此一來其他跳棋研究者只需專注於研發跳棋程式的AI引擎,以期望有更多同好加入電腦中國跳棋的研究,也有助於推廣中國跳棋這項遊戲。Item 改進AlphaZero的大贏策略並應用於黑白棋(2019) 張乃元; Chang, Nai-YuanDeepMind的AlphaZero演算法在電腦遊戲對局領域中取得了巨大的成功,在許多具有挑戰性的遊戲中都取得了超越人類的表現,但是我們認為AlphaZero演算法中仍然有可以改進的地方。 AlphaZero演算法只估計遊戲的輸贏或是平手,而忽略了最後可能會獲得多少分數。而在像是圍棋或是黑白棋這類的佔地型遊戲中,最後所得到的分數往往會相當大地左右遊戲的勝負,於是我們提出大贏策略:在AlphaZero演算法中加入對於分數的判斷,來改進演算法的效率。 在本研究中使用8路黑白棋作為實驗大贏策略效果的遊戲,我們使用並且修改網路上一個實作AlphaZero演算法的開源專案:alpha-zero-general來進行我們的實驗。經過我們的實驗之後,使用大贏策略的模型相比未使用的原始AlphaZero模型,在經過100個迭代的訓練之後有著高達78%的勝率,證明大贏策略對於AlphaZero演算法有著十分顯著的改進效益。