首页 >> 大全

CS224W摘要10.Knowledge Graph Embeddings

2023-11-16 大全 36 作者:考证青年

文章目录 : KG with Graph : , , ,

: with

公式输入请参考: 在线Latex公式

主要内容:

1.介绍 异质图 graph的概念和异质图经典: GCN (RGCN),这块之前也写过一点 这块之前也写过一点,但是这里对于参数的优化讲得细些。

2.介绍 知识图谱补全 graph 任务。

3.通过图嵌入方式的四种实现方式(,,,

)及其对关系表示的限制。 and GCN (RGCN)

A graph is as

G = ( V , E , R , T ) G=(V,E,R,T) G=(V,E,R,T)

节点,边,边类型,节点类型

例子略

RGCN

先从多类型的边入手,将普通的有向图扩展为多类型的边的图结构

这里对于GNN处理有向图的公式、消息汇聚不啰嗦。

扩展后得到:

要处理不同边,那么每个类型边对应一个权重:

第l+1层的表征公式为:

h v ( l + 1 ) = σ ( ∑ r ∈ R ∑ u ∈ N v r 1 c v , r W r ( l ) h u ( l ) + W 0 ( l ) h v ( l ) ) h_v^{(l+1)}=\sigma\left(\sum_{r\in R}\sum_{u\in N_v^r}\cfrac{1}{c_{v,r}}W_r^{(l)}h_u^{(l)}+W_0^{(l)}h_v^{(l)}\right) hv(l+1)​=σ⎝⎛​r∈R∑​u∈Nvr​∑​cv,r​1​Wr(l)​hu(l)​+W0(l)​hv(l)​⎠⎞​

其中 W 0 ( l ) h v ( l ) W_0^{(l)}h_v^{(l)} W0(l)​hv(l)​表示当前节点本身self loop

R R R表示当前边类型 r r r的集合

c v , r c_{v,r} cv,r​是归一化项是当前节点 i i i的邻居里面节点类型为 r r r的节点数量,针对这一个类型的邻居进行归一化

N v r N_v^r Nvr​是当前节点 v v v的邻居里面节点类型为 r r r的节点集合

W r W_r Wr​表示不同边类型有自己的参数

效率分析这里之前没写,这里详细写下。

RGCN中如果有L层,那么就还有L个参数矩阵: W R ( 1 ) , W R ( 2 ) , ⋯ , W R ( L ) W_R^{(1)},W_R^{(2)},\cdots,W_R^{(L)} WR(1)​,WR(2)​,⋯,WR(L)​

每个矩阵维度大小为: d ( l + 1 ) × d ( l ) d^{(l+1)}\times d^{(l)} d(l+1)×d(l), d ( l ) d^{(l)} d(l)是第 l l l个隐藏层的维度,可以看到RGCN中参数数量和关系类型数量成正比,知识图谱中关系类型数量很多,容易产生过拟合,不好训练。

这里给两个方法来解决:

block

将 W r W_r Wr​弄成block 形式,使得权重矩阵变稀疏,减少非零元素个数:

相当于用小的block在对角线上进行拼接,每个block是对应一个关系要学习的参数,如有有B个block,那么参数数量从 d ( l + 1 ) × d ( l ) d^{(l+1)}\times d^{(l)} d(l+1)×d(l)减少到:

B × d ( l + 1 ) B × d ( l ) B B\times \cfrac{d^{(l+1)}}{B}\times \cfrac{d^{(l)}}{B} B×Bd(l+1)​×Bd(l)​

这个法子有一个缺点,可以看到各个block在大矩阵里面的关系是正交的,因此相互之间没有交互,也就是认为关系和关系之间是独立的,没有相互的影响。

Basis/

类似提取公因式的思想,将所有的参数矩阵提取一个Share ,然后乘以一个各个关系的常量参数:

W r = ∑ b = 1 B a r b ⋅ V b W_r=\sum_{b=1}^Ba_{rb}\cdot V_b Wr​=b=1∑B​arb​⋅Vb​

这里只要学习B个常量参数 a r b a_{rb} arb​即可。

Link

因为这里有多个边类型,边预测在划分数据集这里要注意一点,节点分类任务还是一样的。

这里要把不同类型的边都要分别划分成四块,因为直接随机划分会造成某种类型的边没有出现在训练集,只出现在测试集的情况,这样效果肯定扑街。

然后给出了训练和测试这个任务的例子,不展开了,里面有提到了负样本的选取原则,看论文带读笔记去吧。

: KG with

这个小节主要是任务大概介绍,也就7分多。

知识图谱是异质图,用节点代表实体,边表示实体间的关系

下面是一个 KG的例子:

KG最常见的应用就是推理和问答。目前公开的大型KG数据集:, , , YAGO, NELL, etc.

特点:数据量大、缺少很多关系

对于以上特点的KG,是不可能遍历所有可能存在的实体的,我们还能预测可能存在却缺失的边吗?

下节讨论如何做。

Graph : , , ,

这里先界定图谱补全和边预测任务不一样,补全是知道部分信息(head, )预测剩下信息(tail),边预则是直接预测可能的链接。

例如:尼古拉斯·赵四(head)、住在()预测:东北。

KG

给出KG的三元组定义 (ℎ, , )

head (ℎ) has with tail ()

思想是使得(ℎ, )的与的越接近越好,这样预测的结果才准确。

(ℎ, )的方式

(ℎ, )与的接近程度如何定义

上面两个问题产生了不同的模型,、是针对第一个问题开展的研究;, 是针对第二个问题开展的研究。下面具体看

in ( vs )

r ( h , t ) ⇒ r ( t , h ) ∀ h , t r(h,t)\ r(t,h)\space\ h,t r(h,t)⇒r(t,h)∀h,t

,

×

( r ( h , t ) ⇒ ¬ r ( t , h ) ) ∀ h , t (r(h,t)\ ¬r(t,h))\space\ h,t (r(h,t)⇒¬r(t,h))∀h,t

r 2 ( h , t ) ⇒ r 1 ( t , h ) r_2(h,t)\ r_1(t,h) r2​(h,t)⇒r1​(t,h)

(, )

()

r 1 ( x , y ) ∧ r 2 ( y , z ) ⇒ r 3 ( x , z ) ∀ x , y , z r_1(x,y)\wedge r_2(y,z)\ r_3(x,z)\space \ x,y,z r1​(x,y)∧r2​(y,z)⇒r3​(x,z)∀x,y,z

My ’s is my

×

1-to-N

r ( h , t 1 ) , r ( h , t 2 ) , ⋯ , r ( h , t n ) r(h,t_1),r(h,t_2),\cdots,r(h,t_n) r(h,t1​),r(h,t2​),⋯,r(h,tn​) are all ture

r r r is “”

×

:上位词关系,例如:白马是马,马非白马。

两个模型的思路在前面有讲,这里就不重复了,不同关系模式类型的具体分析看PPT,大概讲下原理: 模型由于计算都是在相同的空间中,因此, 很容易根据向量的平移计算表达得到,但是对于 和1-to-N关系而言,如果要满足关系等式,会使得 h = t h=t h=t,这个与假设相悖,因此无法表示这两种关系,对于而言,它的表示能力明显要比 要好,但是由于每个关系都在独立的空间域,因此很难表示关系。

, 两个模型都是用的 Loss作为衡量(ℎ, )与的接近程度的方式(基于L1/L2 距离),下面看别的衡量方式。

:

: and using in R k \R^k Rk(这里实体和关系都在相同空间,和的设定一样)

它的衡量方式(Score )如下:

f r ( h , t ) = < h , r , t > = ∑ i h i ⋅ r i ⋅ t i , h , r , t ∈ R k f_r(h,t)==\\cdot r_i\cdot t_i, h,r,t\in \R^k fr​(h,t)==i∑​hi​⋅ri​⋅ti​,h,r,t∈Rk

从上面的表达式可以看成hrt三个东西的点积然后累加求和。

KaTeX parse error: : \cdor at 2: h\̲c̲d̲o̲r̲ ̲r相当于超平面,然后结果在和 t t t求夹角看相似度,根据超平面的法向量来判定夹角的正负,并得到是否相关的结果。

在 的基础上变成了使用复数向量空间( space)表示实体和关系:model and using in C k \{C}^k Ck

u ˉ \bar u uˉ是共轭复数

它的衡量方式(Score )如下:

f r ( h , t ) = < h , r , t > = R e ( ∑ i h i ⋅ r i ⋅ t ˉ i ) f_r(h,t)==Re(\\cdot r_i\cdot \bar t_i) fr​(h,t)==Re(i∑​hi​⋅ri​⋅tˉi​)

小结

PS:早看到就不自己画表格了

可以看到没有哪个模型是完美的,要根据自己数据需要预测什么样类型的关系来选择模型。

Try for a quick run if the KG does not have much .

Then use more , e.g., , ( in space)

关于我们

最火推荐

小编推荐

联系我们


版权声明:本站内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 88@qq.com 举报,一经查实,本站将立刻删除。备案号:桂ICP备2021009421号
Powered By Z-BlogPHP.
复制成功
微信号:
我知道了