深度視覺語義嵌入模型於生成式多標籤零樣本學習

dc.contributor葉梅珍zh_TW
dc.contributorYeh, Mei-Chenen_US
dc.contributor.author陳冠穎zh_TW
dc.contributor.authorChen, Guan-Yingen_US
dc.date.accessioned2022-06-08T02:43:27Z
dc.date.available2026-09-07
dc.date.available2022-06-08T02:43:27Z
dc.date.issued2021
dc.description.abstract零樣本學習是指分類器不只能識別在訓練階段已經看過的物件,甚至能識別未曾看過的物件,而在多標籤零樣本學習中,每個實例中可能出現不只一個物件,這使得識別任務變得更加困難。  過去的方法常利用標籤的屬性嵌入(attributes embedding)及影像抽取出的視覺特徵(visual feature),投影到同一空間中,藉此尋找與影像特徵最接近的標籤,或是利用知識圖譜、知識庫建構標籤之間的關係,根據此關係來幫助辨識標籤。然而在資料集欠缺屬性嵌入時,常用於替代的語義嵌入(word mbedding)並不像屬性嵌入一樣具有良好的辨識力,而建構關係的方法,也容易太過信任知識庫,便將關係強加上去,忽略了影像本身包含的資訊。近年來由於生成對抗網路(Generative Adversarial Network)的興起,對於未知類別,先從已知類別學習影像特徵的表達式及對應的屬性,再由屬性標籤生成影像特徵變得更加有效率,結果也更準確。基於這項觀察,我們提出了生成對抗網路結合語義嵌入的深度學習模型,從語義嵌入生成影像特徵,以及將影像特徵轉換成分類器映射至語義嵌入空間,尋找屬於該影像的標籤。藉由影像特徵及語義嵌入互相映射來更好地預測未知類別,並根據影像特徵與分類器之間的關係,將多標籤任務轉換化成單標籤任務。zh_TW
dc.description.abstractnoneen_US
dc.description.sponsorship資訊工程學系zh_TW
dc.identifier60747064S-40169
dc.identifier.urihttps://etds.lib.ntnu.edu.tw/thesis/detail/d58f8ede75d808f990b1d8622ca7dc45/
dc.identifier.urihttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/117305
dc.language中文
dc.subject多標籤zh_TW
dc.subject零樣本學習zh_TW
dc.subject視覺語義嵌入模型zh_TW
dc.subject生成對抗網路zh_TW
dc.subjectMulti-Labelen_US
dc.subjectZero-Shot Learningen_US
dc.subjectvisual semantic embedding modelen_US
dc.subjectGANen_US
dc.subjectgenerative adversarial networken_US
dc.title深度視覺語義嵌入模型於生成式多標籤零樣本學習zh_TW
dc.titleDeep Visual-Semantic Embedding Model for Generative Multi-Label Zero-Shot Learningen_US
dc.type學術論文

Files

Collections