學習資訊專業學院—圖書資訊學研究所

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/22

國立臺灣師範大學(本校)於民國四十四年成立社會教育學系圖書資訊學組,為臺灣最早成立之圖書資訊學相關科系。為培育知識經濟社會所需之高階圖書資訊服務人才,本校於民國九十一年成立圖書資訊學之獨立研究所(本所),隸屬本校教育學院,招收一般碩士生。

為提供在職圖書資訊服務人員之進修管道,本所於民國九十四年續接社會教育學系(社教系)之「圖書資訊學碩士學位在職專班(週末班)」及「學校圖書館行政碩士在職專班(暑期班)」,以培育具備資訊科技知能之圖書資訊服務人才。

為進一步推動跨領域合作,本所於民國九十五年與本校美術系、歷史系、國文系及產業界專家等共同籌設「數位內容與創新應用學分學程」,以培育兼具數位內容創作與加值應用之人才。因應圖書資訊學研究之變遷與知識服務產業之發展趨勢,本所於民國九十七年奉教育部核准成立博士班,並於民國九十八年招收第一屆博士生,以培育兼具圖書資訊學學術研究與管理領導能力之人才。

Browse

Search Results

Now showing 1 - 3 of 3
  • Item
    RAG技術的應用與效能評估-以圖書資訊學領域為例
    (2025) 陳育銘; Chen,Yu-Ming
    本研究針對圖書資訊學領域,探討檢索增強生成(Retrieval-Augmented Generation, RAG)技術的應用與效能評估。現有的大型語言模型(如GPT-3)雖展現卓越的文本生成能力,但在面對專業問題時,易受人工智慧幻覺影響,導致生成內容的準確性和相關性不足。RAG技術結合檢索與生成兩個階段,通過檢索外部資料輔助文本生成,提升了內容的專業性與上下文的連貫性,特別適合應用於資訊需求高且專業性強的領域。本研究採用AI生成問題並使用RAG進行回答,結合ChatGPT與人工的評分數據,透過多指標(如F1分數、準確率)對RAG效能進行量化分析。結果顯示,RAG能有效克服傳統LLM在專業領域中的不足,在準確性、相關性和上下文匹配上表現卓越。同時,採用Ragas生成測試集以另一種客觀方式進行評估,進一步驗證RAG技術的效能。然而,研究也發現部分生成回答在忠實度上存在改進空間,特別是在資料支持不足或背景資訊偏差的情境中。本研究證實,RAG技術能顯著提升大型語言模型在圖書資訊學領域文本生成的質量,為專業問題解決提供了更準確與可靠的工具,並為相關領域的研究與應用提供了重要的參考依據。
  • Item
    惡意內容文本自動分類之研究
    (2025) 楊雪子; Yang, Yukiko
    本研究旨在探討如何運用多種人工智慧模型,對網路社群平台上的多標籤惡意文本(Toxic Content)進行分類與分析,並比較不同模型在多標籤分類任務中的成效。隨著社群媒體的普及,惡意評論與網路霸凌等問題日益嚴重,對使用者心理健康與社會互動造成負面影響。為有效偵測並管理有害內容,本研究選取來自Jigsaw釋出的Toxic Comment Classification涵蓋多重標籤的開放資料集,進行文本分析的實驗。研究將模型分為三大組:傳統機器學習模型組(如Logistic Regression、Random Forest、Naive Bayes、XGBoost等)、深度學習模型組(如GRU、BiLSTM、LSTM、CNN等)、以及大型語言模型組(BERT、Grok、GPT、Gemini)來進行分組實驗,訓練後模型的效能則依照 ROC-AUC、準確率(Accuracy)、F1-score、Hamming Loss 等指標來進行效能評估。實驗結果顯示,大型語言模型組的BERT在多標籤資料集的分類的表現最佳(ROC-AUC分數達0.9782),傳統機器學習中的 Logistic Regression搭配TF-IDF特徵次之,這可認為推出多年的傳統機器學習模型面對新推出的大型語言模型,效能表現仍相當亮眼,且無須額外費用,對學術或非商業的需求亦是理想的選擇,本研究結果可作為未來建立高效、精準之惡意評論自動分類系統的參考依據。
  • Item
    以人工智慧輔助中文期刊參考文獻剖析之研究─以人文社會科學領域為例
    (2024) 郭珮涵; Kuo, Pei-Han
    隨著科學論文發表數量的快速增長,引用來源的多樣性和格式差異增加了參考文獻剖析的難度。本研究旨在探討如何自動化擷取科學論文中的參考文獻,並利用人工智慧工具進行剖析,藉以簡化工作流程,降低人力和時間成本,並提升圖書館的知識傳播效能。本文提出了從中文期刊文章檔案中自動化擷取參考文獻的方法,並評估使用人工智慧工具剖析參考文獻的可行性。本研究實驗分為三個部分,第一部分設計程式,擷取期刊文章中的參考文獻章節;第二部分評估不同人工智慧工具在參考文獻剖析任務中的效能;第三部分根據第二部分的實驗結果修正實驗方法,並評估和比較修正後的成果。實驗結果如下:1. 在參考文獻擷取實驗中,基於規則方法的程式能夠自動擷取文章中的參考文獻內容,用於建立資料集作為後續研究基礎。2. 在參考文獻剖析實驗中,本研究比較了spaCy和ChatGPT兩種基於Transformer架構的人工智慧工具的效能。實驗結果顯示,ChatGPT在各欄位的F1-score表現優於spaCy,具有較高的準確性和穩定性。3. 在第三部分實驗中,選擇了第二部分中效能較佳的ChatGPT進行提示修正。實驗結果顯示,經過提示調整後,ChatGPT在各欄位的F1-score表現均有所提升。本研究結果顯示了使用人工智慧工具自動化剖析參考文獻的可行性,並展現了大型語言模型在這一任務中的潛力和優勢。未來研究可以進一步嘗試結合多種人工智慧工具,探討利用不同模型優勢提升參考文獻剖析的準確性,同時探討減低剖析成本的可能性。