论文阅读“Semantically Consistent Multi-view Representation Learning”

Semantically Consistent Multi-view Representation Learning (KBS2023, on line)

摘要导读

该项工作致力于无监督多视图表示学习(UMRL,Unsupervised Multi-view Representation Learning)这一具有挑战性的任务,要求以无监督的方式从多个视图中学习统一的特征表示。现有的 UMRL 方法主要集中在特征空间的学习过程,而忽略了隐藏在不同视图中的宝贵语义信息。针对这一问题,本文提出了一种新颖的语义一致性多视图表示学习(SCMRL)框架,该方法致力于挖掘底层的多视图语义共识信息,并利用这些信息指导统一特征表示学习。具体来说,SCMRL 包括一个视图内重构模块和一个统一特征表征学习模块,这两个模块通过对比学习策略巧妙地整合在一起,使特定视图特征表征和学习到的统一特征表征的语义标签同时保持一致。这样,就能有效利用语义空间中的共识信息来约束统一特征表征的学习过程。在下游聚类和分类任务上展现出了出色性能。

模型浅析
模型架构图
数据定义

给定多视图数据\{X^{(i)}\}_{i=1}^m包含m个视图,其中第i个视图对应的原始特征空间为X^{(i)} \in R^{N \times D_i}。其中ND_i分别表示样本的个数和特征空间的维度。整个模型的目标是学习统一的多视图特征表示H \in R^{N \times D_H}

模型
  • 总体损失:

    \mathcal{L}_{Rec}为视图内重构损失,\mathcal{L}_{Deg}是统一特征表示学习中退化学习的损失,\mathcal{L}_{Sem}是语义一致性损失。\lambda_1\lambda_2是平衡因子。

  • 视图内重构
    对于多视图数据的每个视图,设置视图特有的视图自编码器学习各自的视图表示。对于视图i,给定样本X_j^{(i)}其对应的中间层表示为:

    得到的中间层表示被送入解码器中得到最终的重构特征:
    因此,这一部分的重构损失定义为如下:

  • 统一的特征表示学习
    通过视图内重构,得到了视图表示的集合\{Z^{(i)}\}_{i=1}^m。理想中的统一特征表示应该包含多视图完整的信息,因此,每个视图都应该用于构建统一的特惠装呢个表示。为了学习该表示,本文作者引入了退化学习的策略。具体来说,该损失表示为:

    其中G_i(\cdot, \delta_i)表示由\delta_i参数化的第i个视图的全连接退化网络,H在学习的过程中可以被更新。基于上式,统一的特征表示学习可以动态的平衡不同视图的重要性,并且达到整合低维视图特有特征表示的目的。
    论文中使用视图平均的方式对统一特征表示进行初始化,

  • 语义一致的对比学习
    然而,前两个模块的学习都是在特征空间中的,为了挖掘有价值的语义共识信息,作者引入了语义一致性的对比学习。首先,引入了一个共享的分类网络Classifier(\cdot, \phi)。由此可以假设\{Z^{(i)}\}_{i=1}^mH应该具有相同的伪标签,通过Classifier(\cdot, \phi),将其映射到k维的语义空间,该操作形式化为如下:

    为方便描述,文中将Q_j^H记为Q_j^{(m+1)}。每个Q_j^{(i)}表示为:
    其中q_{jk}^{(i)}为在第j个视图中,第j个样本属于类别k的概率。
    由于多视图数据的性质,每个视图在语义空间中可能会包含混淆的语义信息,可能会导致不同的分类结果。因此,文中引入了对比学习来挖掘一致的语义信息,同时获取到一致的类别。具体来说,语义列向量q_{\cdot w}^{(i)}((m+1)k-1)组向量对。其中包含m个正例对\{q_{\cdot w}^{(i)}, q_{\cdot w}^{(j)}\}_{j \neq i},以及(k-1)(m+1)个负例对。
    给定视图对(i, j)对应的对比损失如下:
    其中列向量的相似度的计算使用的是余弦相似度,\tau是温度参数。
    对于对比学习而言,每两个视图之间都可以构成语义对比,因此,整个数据集的语义对比损失可以写成如下的形式:
    为避免所有的样本都分到相同的类簇中,文章还引入了类簇的正则化项\mathcal{L}_{Reg}

    该模块的整体损失表示为:

算法优化

输入:多视图数据集\{X^{(i)}\}_{i=1}^m温度参数\tau;类簇个数k
输出:统一的特征表示H

1.  通过重构损失训练各视图的自编码器(AE的预训练过程)
2. 使用视图平均表示初始化 H
3. while not converged do
4.      使用预训练的编码器部分获得各视图低维表示 Z
5.      使用语义分类器获取(m+1)个标签分布 Q
6.      使用整体损失对整个网络的参数进行更新
7. end
总结

通过引入语义一致性对比学习,本文将视图内重构与统一特征表征学习结合起来,并探索语义空间中有价值的共识语义信息,以指导整个网络的学习过程。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,569评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,499评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,271评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,087评论 0 209
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,474评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,670评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,911评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,636评论 0 202
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,397评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,607评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,093评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,418评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,074评论 3 237
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,092评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,865评论 0 196
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,726评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,627评论 2 270

推荐阅读更多精彩内容