特斯聯公佈研發新突破:用於視覺任務中無監督域自適應的類別對比
【環球網科技綜合報道】6月15日消息,近日,特斯聯科技集團首席科學家、特斯聯國際總裁邵嶺博士及合作者們提出了基於類別對比的新穎方法Category Contrast (CaCo),並公佈了所取得的最新研究成果。該方法在視覺UDA任務的實例判別之上引入了語義先驗。該研究成果“ Category Contrast for Unsupervised Domain Adaptation in Visual Tasks”已被今年的 AI頂會CVPR (國際計算機視覺與模式識別會議)收錄。
通過將實例對比學習視為字典查詢操作,團隊利用源域和目標域的樣本構建了一個類別感知(category-aware)和域混合(domain-mixed)的字典,其中每個目標樣本會根據源域樣本的類別先驗被分配一個(偽)類別標籤,併為UDA提供了相應的類別對比損失(category contrastive loss)。由此鼓勵學習完全契合UDA目標的,具有類別判別力但域不變的(category-discriminative yet domain-invariant )表徵:同類別樣本(無論是來自於源域或者目標域)的距離被拉得更近的同時不同類別樣本的距離會被推遠。在多種視覺任務(例如分割、分類和檢測)中進行的大量實驗表明CaCo實現了與當前最先進的算法相比更卓越的性能。此外,實驗也顯示CaCo可以作為現有UDA方法的補充,並可推廣到其它的學習方法中,如無監督模型適應、開放/半開放集域自適應等。
總體而言,邵嶺博士及團隊提出了一種類別對比方法CaCo,該方法引入了通用的類別對比損失函數(generic category contrastive loss),可有效用於多種視覺UDA任務。團隊用來自源域和目標域的樣本構建了一個語義感知字典,域中的每一個目標樣本都根據源域樣本的類別先驗被分配了一個(偽)類別標籤。這使得(目標查詢和類別級的字典間的)類別對比學習可以學習具有類別判別力且域不變的表徵:同類別的樣本(無論是來自於源域或者目標域)會被拉近而不同類別的樣本被同時推遠。在多種視覺任務(例如分割、分類和檢測)中進行的大量實驗顯示單獨使用CaCo就可以展現出與當前最先進的方法相當的性能。另外,實驗也顯示CaCo可以與現有的UDA方法互補,也可以外推至其他的學習類型,如無監督模型自適應、開放/半開放集域自適應等。