學習資訊專業學院—圖書資訊學研究所

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/22

國立臺灣師範大學(本校)於民國四十四年成立社會教育學系圖書資訊學組,為臺灣最早成立之圖書資訊學相關科系。為培育知識經濟社會所需之高階圖書資訊服務人才,本校於民國九十一年成立圖書資訊學之獨立研究所(本所),隸屬本校教育學院,招收一般碩士生。

為提供在職圖書資訊服務人員之進修管道,本所於民國九十四年續接社會教育學系(社教系)之「圖書資訊學碩士學位在職專班(週末班)」及「學校圖書館行政碩士在職專班(暑期班)」,以培育具備資訊科技知能之圖書資訊服務人才。

為進一步推動跨領域合作,本所於民國九十五年與本校美術系、歷史系、國文系及產業界專家等共同籌設「數位內容與創新應用學分學程」,以培育兼具數位內容創作與加值應用之人才。因應圖書資訊學研究之變遷與知識服務產業之發展趨勢,本所於民國九十七年奉教育部核准成立博士班,並於民國九十八年招收第一屆博士生,以培育兼具圖書資訊學學術研究與管理領導能力之人才。

Browse

Search Results

Now showing 1 - 1 of 1
  • Item
    惡意內容文本自動分類之研究
    (2025) 楊雪子; Yang, Yukiko
    本研究旨在探討如何運用多種人工智慧模型,對網路社群平台上的多標籤惡意文本(Toxic Content)進行分類與分析,並比較不同模型在多標籤分類任務中的成效。隨著社群媒體的普及,惡意評論與網路霸凌等問題日益嚴重,對使用者心理健康與社會互動造成負面影響。為有效偵測並管理有害內容,本研究選取來自Jigsaw釋出的Toxic Comment Classification涵蓋多重標籤的開放資料集,進行文本分析的實驗。研究將模型分為三大組:傳統機器學習模型組(如Logistic Regression、Random Forest、Naive Bayes、XGBoost等)、深度學習模型組(如GRU、BiLSTM、LSTM、CNN等)、以及大型語言模型組(BERT、Grok、GPT、Gemini)來進行分組實驗,訓練後模型的效能則依照 ROC-AUC、準確率(Accuracy)、F1-score、Hamming Loss 等指標來進行效能評估。實驗結果顯示,大型語言模型組的BERT在多標籤資料集的分類的表現最佳(ROC-AUC分數達0.9782),傳統機器學習中的 Logistic Regression搭配TF-IDF特徵次之,這可認為推出多年的傳統機器學習模型面對新推出的大型語言模型,效能表現仍相當亮眼,且無須額外費用,對學術或非商業的需求亦是理想的選擇,本研究結果可作為未來建立高效、精準之惡意評論自動分類系統的參考依據。