[论文阅读] Hypergraph Learning: Methods and Practices

超图生成

基于距离(聚类 最近k邻居) 基于表示(特征重建) 基于属性(共享属性信息构造) 基于网络(社交小组)
如果相关性是潜在的和模糊的,则可以使用基于距离的方法和基于表示的方法从观测数据隐式生成超
图。我们还可以使用数据的固有属性或网络信息构建显式超图。
基于距离的方法在运行时间方面更有效,更适合在线场景,而基于表示的方法消耗更多时间,但对噪
声数据更鲁棒。

超图学习

标签预测

传导式 (在超图构造和学习过程中考虑了所有的训练数据和测试数据)
归纳式 (离线训练 基本思想是学习从特征空间到标签空间的投影矩阵)

动态超图结构学习

在学习过程中动态调整超图组件,包括超边权重、顶点权重和关联矩阵,以使数据关联建模更加精确

固定超图结构方法:

  • 超边权重学习
  • 节点权重学习

超图结构学习

  • 优点: 在学习过程中动态更新超图结构, 将特征空间和标签空间相关联
  • 缺点:非凸模型和高计算成本

多模态数据的超图学习

传导式 :对于每个模态生成一个超图 超图Gi的最优权重αi与顶点标签向量联合学习
归纳式 :离线训练时每个模态一个超图 每个模态学习一个从特征空间到标签空间的投影矩阵Mi 学习时与投影矩阵Mi联合学习每个模态的权重αi

基于张量的动态超图学习 (这篇文章提出的算法 t-DHL)

动态超图学习问题面临的挑战主要有三方面的限制:

  • 固定的超边数量和顺序
  • 非凸优化模型(存在收敛问题)
  • 计算成本高(关联矩阵的高表示复杂性使得计算梯度和优化目标函数的成本很高)

张量表示可以描述所有阶的超边,是超图结构的完整表示, 因此优化张量表示时,不仅可以改变权重,还可以改变超边的数量和顺序

将超边关系转换为向量表示 即用2^N-1个向量代表每个排列组合下的节点间是否存在超边

Eg. 7个向量依次表示 节点v1自身, 节点v2自身, 节点v3自身, 节点v1,v2, 节点v1,v3, 节点v2,v3, 节点v1,v2,v3是否构成边

由于2^N-1个向量空间太大, 进行采样降低, 方法: 将一个大图分解成多个小图, 对于每个节点, 以k个最近邻域节点构造小图, 每个小图的节点数目不超过ln N, 这样总的空间消耗变成NlnN

HGNN 中,引入了谱卷积层来处理表示学习的高阶数据相关性。

然而,这个框架只使用了一个静态的初始构建超图结构DHGNN,基于HGNN加入了动态更新超图结构, 其中超图重建模块和超图卷积模块交替堆叠, 每次卷积运算后都会重新生成一个新的超图,在这种更新策略下,超图结构的变化是不连续和不可微的,可能导致不收敛

基于超图学习方法的应用

应用:

  • 三维物体分类:通过多模态传导式超图学习
  • 情感分析:多模态归纳超图学习方法
  • 动作识别:优势 建模不同动作样本之间的高阶相关性
  • 人脸识别等聚类问题

要将超图学习应用于特定的分类或聚类任务:

  • 第一步是用超图结构对问题建模(例如,定义超图顶点所指的对象)。
  • 第二步是基于对象的特征、属性或先前相关性构建超图。
  • 最后一步是使用适当的超图学习方法对该超图进行学习。

THU HyperG的开源Python库

https://github.com/iMoonLab/THU-HyperG

提供了各种超图学习方法的实现,它允许用户将超图学习应用于分类和聚类任务

对于超图生成,THU HyperG支持各种超图生成算法,包括基于距离的、基于表示的、基于属性的和基于网络的方法。

对于超图学习,在THU HyperG中实现了包括传导性超图学习、归纳超图学习、超图交叉扩散、基于张量的超图学习和超图结构更新方法等方法。