深度視覺語義嵌入模型於生成式多標籤零樣本學習
dc.contributor | 葉梅珍 | zh_TW |
dc.contributor | Yeh, Mei-Chen | en_US |
dc.contributor.author | 陳冠穎 | zh_TW |
dc.contributor.author | Chen, Guan-Ying | en_US |
dc.date.accessioned | 2022-06-08T02:43:27Z | |
dc.date.available | 2026-09-07 | |
dc.date.available | 2022-06-08T02:43:27Z | |
dc.date.issued | 2021 | |
dc.description.abstract | 零樣本學習是指分類器不只能識別在訓練階段已經看過的物件,甚至能識別未曾看過的物件,而在多標籤零樣本學習中,每個實例中可能出現不只一個物件,這使得識別任務變得更加困難。 過去的方法常利用標籤的屬性嵌入(attributes embedding)及影像抽取出的視覺特徵(visual feature),投影到同一空間中,藉此尋找與影像特徵最接近的標籤,或是利用知識圖譜、知識庫建構標籤之間的關係,根據此關係來幫助辨識標籤。然而在資料集欠缺屬性嵌入時,常用於替代的語義嵌入(word mbedding)並不像屬性嵌入一樣具有良好的辨識力,而建構關係的方法,也容易太過信任知識庫,便將關係強加上去,忽略了影像本身包含的資訊。近年來由於生成對抗網路(Generative Adversarial Network)的興起,對於未知類別,先從已知類別學習影像特徵的表達式及對應的屬性,再由屬性標籤生成影像特徵變得更加有效率,結果也更準確。基於這項觀察,我們提出了生成對抗網路結合語義嵌入的深度學習模型,從語義嵌入生成影像特徵,以及將影像特徵轉換成分類器映射至語義嵌入空間,尋找屬於該影像的標籤。藉由影像特徵及語義嵌入互相映射來更好地預測未知類別,並根據影像特徵與分類器之間的關係,將多標籤任務轉換化成單標籤任務。 | zh_TW |
dc.description.abstract | none | en_US |
dc.description.sponsorship | 資訊工程學系 | zh_TW |
dc.identifier | 60747064S-40169 | |
dc.identifier.uri | https://etds.lib.ntnu.edu.tw/thesis/detail/d58f8ede75d808f990b1d8622ca7dc45/ | |
dc.identifier.uri | http://rportal.lib.ntnu.edu.tw/handle/20.500.12235/117305 | |
dc.language | 中文 | |
dc.subject | 多標籤 | zh_TW |
dc.subject | 零樣本學習 | zh_TW |
dc.subject | 視覺語義嵌入模型 | zh_TW |
dc.subject | 生成對抗網路 | zh_TW |
dc.subject | Multi-Label | en_US |
dc.subject | Zero-Shot Learning | en_US |
dc.subject | visual semantic embedding model | en_US |
dc.subject | GAN | en_US |
dc.subject | generative adversarial network | en_US |
dc.title | 深度視覺語義嵌入模型於生成式多標籤零樣本學習 | zh_TW |
dc.title | Deep Visual-Semantic Embedding Model for Generative Multi-Label Zero-Shot Learning | en_US |
dc.type | 學術論文 |