學習資訊專業學院—圖書資訊學研究所
Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/22
國立臺灣師範大學(本校)於民國四十四年成立社會教育學系圖書資訊學組,為臺灣最早成立之圖書資訊學相關科系。為培育知識經濟社會所需之高階圖書資訊服務人才,本校於民國九十一年成立圖書資訊學之獨立研究所(本所),隸屬本校教育學院,招收一般碩士生。
為提供在職圖書資訊服務人員之進修管道,本所於民國九十四年續接社會教育學系(社教系)之「圖書資訊學碩士學位在職專班(週末班)」及「學校圖書館行政碩士在職專班(暑期班)」,以培育具備資訊科技知能之圖書資訊服務人才。
為進一步推動跨領域合作,本所於民國九十五年與本校美術系、歷史系、國文系及產業界專家等共同籌設「數位內容與創新應用學分學程」,以培育兼具數位內容創作與加值應用之人才。因應圖書資訊學研究之變遷與知識服務產業之發展趨勢,本所於民國九十七年奉教育部核准成立博士班,並於民國九十八年招收第一屆博士生,以培育兼具圖書資訊學學術研究與管理領導能力之人才。
Browse
5 results
Search Results
Item 公司年報合規檢驗輔助系統建置與評估(2025) 蔡元翔; Tsai, Yuan-Shiang研究背景與問題:台灣1843家上市櫃公司年報需符合「公開發行公司年報應行記載事項準則」145條細項規範,但現行人工檢驗面臨效率低下、人力資源短缺等問題。特別是每年5-6月集中召開股東常會期間,檢驗工作量高達259,260條細項,造成審查委員巨大工作壓力。傳統檢驗方式依賴人工逐項核對,存在定位困難、驗證複雜度高及自動化侷限等挑戰,亟需創新技術解決方案。研究目的與研究問題:本研究旨在建立基於大型語言模型(LLM)與檢索增強生成(RAG)技術的年報合規性自動判讀系統,實現自動化檢驗流程並設計視覺化輔助介面。研究探討四個核心問題:年報合規檢驗系統如何結合LLM與BM25檢索技術實現自動化判讀功能、互動式輔助介面應包含哪些核心功能模組、系統在不同排版類型年報和法規條款中的表現差異,以及影響系統檢驗準確度和效率的關鍵因素及其優化策略。 研究方法:採用模組化系統架構,包含資料前處理、自動化檢驗及互動式輔助介面三大模組。將145條法規細項系統性分類為五種類型,聚焦於74條不需額外資訊的內容規範條款。採用分層比例抽樣選取27條測試項目,以5家不同產業與排版類型的上市公司年報為驗證樣本。建立「寬鬆正確率」與「嚴格正確率」雙重評估指標,結合人工專家判斷作為標準答案進行系統效能評估。 主要發現:系統整體達到86.26\%寬鬆正確率與64.12\%嚴格正確率,平均處理時間僅需97.43秒。自定義詞典為關鍵技術亮點,將檢索準確率從47.93\%大幅提升至86.26\%,改善幅度達38.33\%。不同題目類型表現存在顯著差異:文本檢核類達95.89\%寬鬆正確率,欄位驗證類為68.75\%,圖像識別與程序條款均達100\%。系統對傳統排版與視覺化排版年報均具良好適應性,正確率分別為86.54\%與86.02\%。結論與意義:本研究成功驗證了RAG框架在專業合規檢驗領域的可行性,建立完整的年報自動化檢驗系統。研究在學術上建立了法規條款系統性分類框架,為RAG技術在專業領域應用提供實證基礎;在實務上大幅提升檢驗效率,減輕監管機構工作負擔,促進資訊透明化與投資者保護。研究成果可擴展至其他法規文件檢驗,為智慧合規檢驗發展奠定重要基礎,體現了圖書資訊檢索技術與AI技術融合的創新應用價值。Item RAG技術的應用與效能評估-以圖書資訊學領域為例(2025) 陳育銘; Chen,Yu-Ming本研究針對圖書資訊學領域,探討檢索增強生成(Retrieval-Augmented Generation, RAG)技術的應用與效能評估。現有的大型語言模型(如GPT-3)雖展現卓越的文本生成能力,但在面對專業問題時,易受人工智慧幻覺影響,導致生成內容的準確性和相關性不足。RAG技術結合檢索與生成兩個階段,通過檢索外部資料輔助文本生成,提升了內容的專業性與上下文的連貫性,特別適合應用於資訊需求高且專業性強的領域。本研究採用AI生成問題並使用RAG進行回答,結合ChatGPT與人工的評分數據,透過多指標(如F1分數、準確率)對RAG效能進行量化分析。結果顯示,RAG能有效克服傳統LLM在專業領域中的不足,在準確性、相關性和上下文匹配上表現卓越。同時,採用Ragas生成測試集以另一種客觀方式進行評估,進一步驗證RAG技術的效能。然而,研究也發現部分生成回答在忠實度上存在改進空間,特別是在資料支持不足或背景資訊偏差的情境中。本研究證實,RAG技術能顯著提升大型語言模型在圖書資訊學領域文本生成的質量,為專業問題解決提供了更準確與可靠的工具,並為相關領域的研究與應用提供了重要的參考依據。Item 惡意內容文本自動分類之研究(2025) 楊雪子; Yang, Yukiko本研究旨在探討如何運用多種人工智慧模型,對網路社群平台上的多標籤惡意文本(Toxic Content)進行分類與分析,並比較不同模型在多標籤分類任務中的成效。隨著社群媒體的普及,惡意評論與網路霸凌等問題日益嚴重,對使用者心理健康與社會互動造成負面影響。為有效偵測並管理有害內容,本研究選取來自Jigsaw釋出的Toxic Comment Classification涵蓋多重標籤的開放資料集,進行文本分析的實驗。研究將模型分為三大組:傳統機器學習模型組(如Logistic Regression、Random Forest、Naive Bayes、XGBoost等)、深度學習模型組(如GRU、BiLSTM、LSTM、CNN等)、以及大型語言模型組(BERT、Grok、GPT、Gemini)來進行分組實驗,訓練後模型的效能則依照 ROC-AUC、準確率(Accuracy)、F1-score、Hamming Loss 等指標來進行效能評估。實驗結果顯示,大型語言模型組的BERT在多標籤資料集的分類的表現最佳(ROC-AUC分數達0.9782),傳統機器學習中的 Logistic Regression搭配TF-IDF特徵次之,這可認為推出多年的傳統機器學習模型面對新推出的大型語言模型,效能表現仍相當亮眼,且無須額外費用,對學術或非商業的需求亦是理想的選擇,本研究結果可作為未來建立高效、精準之惡意評論自動分類系統的參考依據。Item 以人工智慧輔助中文期刊參考文獻剖析之研究─以人文社會科學領域為例(2024) 郭珮涵; Kuo, Pei-Han隨著科學論文發表數量的快速增長,引用來源的多樣性和格式差異增加了參考文獻剖析的難度。本研究旨在探討如何自動化擷取科學論文中的參考文獻,並利用人工智慧工具進行剖析,藉以簡化工作流程,降低人力和時間成本,並提升圖書館的知識傳播效能。本文提出了從中文期刊文章檔案中自動化擷取參考文獻的方法,並評估使用人工智慧工具剖析參考文獻的可行性。本研究實驗分為三個部分,第一部分設計程式,擷取期刊文章中的參考文獻章節;第二部分評估不同人工智慧工具在參考文獻剖析任務中的效能;第三部分根據第二部分的實驗結果修正實驗方法,並評估和比較修正後的成果。實驗結果如下:1. 在參考文獻擷取實驗中,基於規則方法的程式能夠自動擷取文章中的參考文獻內容,用於建立資料集作為後續研究基礎。2. 在參考文獻剖析實驗中,本研究比較了spaCy和ChatGPT兩種基於Transformer架構的人工智慧工具的效能。實驗結果顯示,ChatGPT在各欄位的F1-score表現優於spaCy,具有較高的準確性和穩定性。3. 在第三部分實驗中,選擇了第二部分中效能較佳的ChatGPT進行提示修正。實驗結果顯示,經過提示調整後,ChatGPT在各欄位的F1-score表現均有所提升。本研究結果顯示了使用人工智慧工具自動化剖析參考文獻的可行性,並展現了大型語言模型在這一任務中的潛力和優勢。未來研究可以進一步嘗試結合多種人工智慧工具,探討利用不同模型優勢提升參考文獻剖析的準確性,同時探討減低剖析成本的可能性。Item 運用大型語言模型分析國小資優生獨立研究報告的參考文獻特徵(2024) 郭舒文; Kuo, Shu-wen本研究旨在探討人工智慧大型語言模型在獨立研究參考文獻書目整理中的應用效果,並瞭解國小資優生獨立研究參考文獻的特徵。研究利用科展比對工具系統進行3個直轄市1,627篇獨立研究報告進行文本重複性比對。運用GPT-4 整理7,022筆國小資優生獨立研究報告的參考文獻,進行參考文獻特徵計量分析。研究結果如下: 一、GPT-4在進行參考文獻整理任務時,平均的F1分數可達0.9,具有較高的準確性。 二、國小資優生獨立研究報告之間的文本重複性不高,但學生沒有良好的文內引用習慣,可能會造成不當引用的誤會。 三、不同年度的獨立研究報告在參考文獻特徵顯示出參考資料來源受到時間的流行影響,目前最主要的參考文獻來源為網路資源。 四、各學科領域的獨立研究報告在參考文獻使用上呈現出差異性。人文類與設計與創作類的獨立研究報告使用最多參考文獻,並偏好使用書籍,自然類與數學類的獨立研究報告常使用科展報告。 五、得獎與未得獎的獨立研究報告在參考文獻的數量和來源上存在差異。前者參考文獻數量較多,且集中在書籍、期刊等具有權威性的資料來源。得獎報告的參考文獻使用會影響未來獨立研究的參考文獻使用。