图书中心

计算机专业首页>图书中心>计算机类

基于预训练语言模型的文本属性图表示学习及应用
  • 书     名:基于预训练语言模型的文本属性图表示学习及应用
  • 出版时间:2025-06-26
  • 编 著 者:李朝卓 许杰 郭三川
  • 版       次:1-1
  • I  S  B N:978-7-5635-7557-2
  • 定       价:¥58.00元

内容简介线

文本属性图广泛分布于诸多应用场景之中,其核心挑战在于如何巧妙地融合节点的文本语义特性与图结构的拓扑信息,从而强化节点的表征学习能力,实现高效且精准的学习范式。为应对这一挑战,本书从多个维度对文本属性图进行了综合性的研究探讨,包括文本属性图综合性研究:基准测试与深度思考、细粒度融合节点文本属性的图表示学习、文本属性图上的半监督表示学习、低内存占用的文本属性图表示学习、GNNLM紧耦合的文本属性图表示学习、基于变分推断的大规模文本属性图上的表示学习、基于高频感知分层对比选择性编码的文本属性图表示学习、基于文本属性图表示学习的搜索广告系统、基于拓扑驱动语言模型预训练的推荐系统、基于文本属性图表示学习的社交网络对齐等多方面的研究。这些研究不仅深化了我们对文本数据与图结构融合的理解,也为相关领域的实践提供了坚实的理论基础和丰富的案例指导。
本书旨在为对图神经网络感兴趣或正在从事相关领域研究与实践的广大读者提供全面而深入的指导。同时,本书也可作为撰写学术论文或进行课题研究的参考书籍,可为学术研究和实际应用提供有力的支持。

目录介绍线















目录



第1章绪论1

1.1研究背景与研究意义1

1.2相关工作7

1.3主要挑战8

1.4本书的主要贡献9

第2章文本属性图综合性研究:基准测试与深度思考11

2.1引言11

2.2相关工作13

2.3CSTAG:文本属性图上数据集与基准测试14

2.3.1CSTAG概述14

2.3.2数据集构造14

2.3.3文本属性图上传统学习范式16

2.3.4语言模型上拓扑预训练17

2.4实验部分18

2.4.1属性静态建模对GNN的影响19

2.4.2协同训练范式分析20

2.4.3基于PLM的方法与基于GNN的方法的比较21

2.4.4拓扑预训练方法的有效性分析23

2.5讨论24

2.6总结与展望25

第3章细粒度融合节点文本属性的图表示学习26

3.1引言26

3.2融合节点属性的图表示学习模型27

3.2.1问题定义27

3.2.2模型框架28

3.2.3基于拓扑结构的目标函数29

3.2.4基于节点属性的目标函数30

3.2.5联合优化算法31

3.2.6讨论33

3.3实验34

3.3.1数据集介绍34

3.3.2对比方法35

3.3.3节点分类35

3.3.4链接预测36

3.4本章小结37


基于预训练语言模型的文本属性图表示学习及应用
|目录|

第4章文本属性图上的半监督表示学习39

4.1引言39

4.2半监督的图表示学习模型41

4.2.1问题定义41

4.2.2模型框架41

4.2.3顺序敏感的图表示学习模型42

4.2.4半监督的图表示学习模型45

4.3实验47

4.3.1数据集介绍47

4.3.2对比方法47

4.3.3网络重构48

4.3.4节点分类49

4.3.5链接预测51

4.3.6参数敏感性分析51

4.4本章小结52

第5章低内存占用的文本属性图表示学习54

5.1引言54

5.2低内存占用的图表示学习57

5.2.1问题定义57

5.2.2基于预训练特征的多热点图表示学习57

5.2.3端到端的多热点图表示学习60

5.3实验62

5.3.1数据集介绍62

5.3.2对比方法63

5.3.3基于预训练特征的多热点图表示学习64

5.3.4端到端的多热点图表示学习68

5.4本章小结70

第6章GNNLM紧耦合的文本属性图表示学习72

6.1引言72

6.2相关工作74

6.3GraphFormers75

6.3.1GNNnested Transformers75

6.3.2模型简化:单向图聚合78

6.3.3模型训练:两阶段渐进式学习78

6.4实验79

6.4.1实验数据和设置79

6.4.2基线方法80

6.4.3整体实验评估80

6.4.4消融实验82

6.4.5效率分析83

6.4.6在Bing搜索中的线上A/B实验83

6.5本章小结84

第7章基于变分推断的大规模文本属性图上的表示学习86

7.1引言86

7.2相关工作87

7.3背景88

7.3.1文本属性图88

7.3.2基于语言模型的节点分类方法89

7.3.3基于图神经网络的节点分类方法89

7.4模型框架89

7.4.1伪似然函数变分框架90

7.4.2参数化技术90

7.4.3期望估计步:语言模型优化91

7.4.4期望最大化步:图神经网络优化92

7.5实验92

7.5.1实验设置92

7.5.2直推式节点分类93

7.5.3无结构的归纳式节点分类95

7.5.4训练范式对比95

7.5.5收敛性分析96

7.6本章小结97

第8章基于高频感知分层对比选择性编码的文本属性图表示学习98

8.1引言98

8.2相关工作101

8.2.1文本属性图上的表示学习101

8.2.2对比学习101

8.3预备知识102

8.3.1定义(文本属性图)102

8.3.2问题陈述103

8.3.3高频感知频谱对比损失103

8.4方法103

8.4.1概述103

8.4.2基于文本属性图的分层对比学习104

8.5实验108

8.5.1实验设置108

8.5.2整体比较109

8.5.3消融实验109

8.5.4效率分析110

8.6本章小结110

第9章基于文本属性图表示学习的搜索广告系统111

9.1引言111

9.2背景定义114

9.2.1问题定义114

9.2.2超图115

9.3方法115

9.3.1整体架构115

9.3.2异构超图的构建115

9.3.3异构文本超图Transformer118

9.3.4相关性模块121

9.3.5目标函数122

9.4实验122

9.4.1实验设置122

9.4.2主要结果124

9.4.3消融实验124

9.4.4冷启动场景下的效果126

9.4.5模型效率分析127

9.5本章小结127

第10章基于拓扑驱动语言模型预训练的推荐系统128

10.1引言128

10.2方法129

10.2.1拓扑驱动的语言模型预训练129

10.2.2基于语义的图丰富化131

10.2.3多通道共同训练模块131

10.2.4多通道聚合与对比学习133

10.2.5训练目标函数133

10.3实验133

10.3.1离线实验结果134

10.3.2在线实验结果135

10.3.3消融研究135

10.4本章小结137

第11章基于文本属性图表示学习的社交网络对齐139

11.1引言139

11.2基于图表示学习的社交网络对齐142

11.2.1准备知识142

11.2.2问题定义143

11.2.3映射函数143

11.2.4单向映射模型SNNAu144

11.2.5双向映射模型SNNAb146

11.2.6正交映射模型SNNAo146

11.3实验147

11.3.1数据集介绍147

11.3.2数据预处理148

11.3.3对比方法148

11.3.4实验结果149

11.3.5模型训练过程分析151

11.4本章小结151

第12章结语153

参考文献156












目录



第1章绪论1

1.1研究背景与研究意义1

1.2相关工作7

1.3主要挑战8

1.4本书的主要贡献9

第2章文本属性图综合性研究:基准测试与深度思考11

2.1引言11

2.2相关工作13

2.3CSTAG:文本属性图上数据集与基准测试14

2.3.1CSTAG概述14

2.3.2数据集构造14

2.3.3文本属性图上传统学习范式16

2.3.4语言模型上拓扑预训练17

2.4实验部分18

2.4.1属性静态建模对GNN的影响19

2.4.2协同训练范式分析20

2.4.3基于PLM的方法与基于GNN的方法的比较21

2.4.4拓扑预训练方法的有效性分析23

2.5讨论24

2.6总结与展望25

第3章细粒度融合节点文本属性的图表示学习26

3.1引言26

3.2融合节点属性的图表示学习模型27

3.2.1问题定义27

3.2.2模型框架28

3.2.3基于拓扑结构的目标函数29

3.2.4基于节点属性的目标函数30

3.2.5联合优化算法31

3.2.6讨论33

3.3实验34

3.3.1数据集介绍34

3.3.2对比方法35

3.3.3节点分类35

3.3.4链接预测36

3.4本章小结37


基于预训练语言模型的文本属性图表示学习及应用
|目录|

第4章文本属性图上的半监督表示学习39

4.1引言39

4.2半监督的图表示学习模型41

4.2.1问题定义41

4.2.2模型框架41

4.2.3顺序敏感的图表示学习模型42

4.2.4半监督的图表示学习模型45

4.3实验47

4.3.1数据集介绍47

4.3.2对比方法47

4.3.3网络重构48

4.3.4节点分类49

4.3.5链接预测51

4.3.6参数敏感性分析51

4.4本章小结52

第5章低内存占用的文本属性图表示学习54

5.1引言54

5.2低内存占用的图表示学习57

5.2.1问题定义57

5.2.2基于预训练特征的多热点图表示学习57

5.2.3端到端的多热点图表示学习60

5.3实验62

5.3.1数据集介绍62

5.3.2对比方法63

5.3.3基于预训练特征的多热点图表示学习64

5.3.4端到端的多热点图表示学习68

5.4本章小结70

第6章GNNLM紧耦合的文本属性图表示学习72

6.1引言72

6.2相关工作74

6.3GraphFormers75

6.3.1GNNnested Transformers75

6.3.2模型简化:单向图聚合78

6.3.3模型训练:两阶段渐进式学习78

6.4实验79

6.4.1实验数据和设置79

6.4.2基线方法80

6.4.3整体实验评估80

6.4.4消融实验82

6.4.5效率分析83

6.4.6在Bing搜索中的线上A/B实验83

6.5本章小结84

第7章基于变分推断的大规模文本属性图上的表示学习86

7.1引言86

7.2相关工作87

7.3背景88

7.3.1文本属性图88

7.3.2基于语言模型的节点分类方法89

7.3.3基于图神经网络的节点分类方法89

7.4模型框架89

7.4.1伪似然函数变分框架90

7.4.2参数化技术90

7.4.3期望估计步:语言模型优化91

7.4.4期望最大化步:图神经网络优化92

7.5实验92

7.5.1实验设置92

7.5.2直推式节点分类93

7.5.3无结构的归纳式节点分类95

7.5.4训练范式对比95

7.5.5收敛性分析96

7.6本章小结97

第8章基于高频感知分层对比选择性编码的文本属性图表示学习98

8.1引言98

8.2相关工作101

8.2.1文本属性图上的表示学习101

8.2.2对比学习101

8.3预备知识102

8.3.1定义(文本属性图)102

8.3.2问题陈述103

8.3.3高频感知频谱对比损失103

8.4方法103

8.4.1概述103

8.4.2基于文本属性图的分层对比学习104

8.5实验108

8.5.1实验设置108

8.5.2整体比较109

8.5.3消融实验109

8.5.4效率分析110

8.6本章小结110

第9章基于文本属性图表示学习的搜索广告系统111

9.1引言111

9.2背景定义114

9.2.1问题定义114

9.2.2超图115

9.3方法115

9.3.1整体架构115

9.3.2异构超图的构建115

9.3.3异构文本超图Transformer118

9.3.4相关性模块121

9.3.5目标函数122

9.4实验122

9.4.1实验设置122

9.4.2主要结果124

9.4.3消融实验124

9.4.4冷启动场景下的效果126

9.4.5模型效率分析127

9.5本章小结127

第10章基于拓扑驱动语言模型预训练的推荐系统128

10.1引言128

10.2方法129

10.2.1拓扑驱动的语言模型预训练129

10.2.2基于语义的图丰富化131

10.2.3多通道共同训练模块131

10.2.4多通道聚合与对比学习133

10.2.5训练目标函数133

10.3实验133

10.3.1离线实验结果134

10.3.2在线实验结果135

10.3.3消融研究135

10.4本章小结137

第11章基于文本属性图表示学习的社交网络对齐139

11.1引言139

11.2基于图表示学习的社交网络对齐142

11.2.1准备知识142

11.2.2问题定义143

11.2.3映射函数143

11.2.4单向映射模型SNNAu144

11.2.5双向映射模型SNNAb146

11.2.6正交映射模型SNNAo146

11.3实验147

11.3.1数据集介绍147

11.3.2数据预处理148

11.3.3对比方法148

11.3.4实验结果149

11.3.5模型训练过程分析151

11.4本章小结151

第12章结语153

参考文献156