NoteDeep

推理

演绎推理

top-down logic

归纳推理

bottom-up logic

溯因推理

结果可解释

类比推理

Q are similar in respect to properties a, b, and c. Object P has been observed to have further property x. Therefore,Q probably has property x also.

知识图谱推理


基于符号表示的推理

基于Ontology


  • 概念包含推理:定义在Tbox上面的推理,一般基于Tbox中的Axiom推断两个概念之间是否存在包含关系
  • 实例检测推理:计算符合某个概念或关系定义的所有实例
  • Tableaux算法:
  • 基本思想是通过一系列规则构建Abox,以检测知识库的可满足性
  • 将概念包含、实例检测等推理都转化为可满足性检测问题来实现

基于Datalog

  • 本体推理的局限:
  • 主要实现了基于本体概念描述的推理,无法支持规则型知识的推理
  • 用户无法定义自己的推理过程
  • 引入规则推理
  • 可以根据特定的场景定制规则,以实现用户自定义的推理过程
  • Datalog语言可以结合本体推理和规则推理
  • Datalog是面向知识库和数据库设计的逻辑语言,表达能力与OWL相当,支持递归,同时便于撰写规则,实现规则推理
基本语法

基于产生式规则

  • 产生式系统:—种前向推理系统,可以按照一定机制执行规则从而达到某些目标,与一阶逻辑类似,也有区别
  • 应用
  • 自动规划
  • 专家系统
  • 产生式系统的组成
  • 事实集合(Working Memory)
  • 产生式/规则集合
  • 推理引擎
基本语法
  • 事实集/运行内存(Working Memory, WM)
  • 事实(WME)的集合
  • 用于存储当前系统中所有事实
  • 事实(Working Memory Element,WME)
  • 描述对象:形如(type attr1 : val1attr2 : val2 ...attrn: valn),其中type, attri, vali均为原子(常量)
  • 描述关系(Refication)
  • 例如: (basicFact relation: olderThan firstArg: John secondArg:Alice)简记为(olderThan John Alice)
  • 产生式集合(Production Memory, PM):产生式规则的集合
  • lF conditions THEN actions
  • conditions是由条件组成的集合,又称为LHS(Left Hand Side)

  • actions是由动作组成的序列,又称为RHS(Right Hand Side)
  • 动作(action)的序列,执行时依次执行,动作的种类如下:
  • ADD pattern:向WM中加入形如pattern的WME
  • REMOVE i:从WM中移除当前规则第i个条件匹配的WME
  • MODIFY i (attr spec):对于当前规则第i个条件匹配的WME,将其对应于attr属性的值改为spec
  • 推理引擎:控制系统的执行
  • 模式匹配:用规则的条件部分匹配事实集中的事实,整个LHS都被满足的规则被触发,并被加入议程(agenda)
  • RETE算法
  • 将产生式的LHS组织成判别网络形式
  • 其核心思想是用分离的匹配项构造匹配网络,同时缓存中间结果。
  • 以空间换时间
  • 启发式算法,不同规则之间往往含有相同的模式,可以共享不同规则的条件部分。如果Rete网络中的某一个条件node被N条规则共享,则算法在此节点上效率会提高N倍
  • 由于采用AlphaMemory和BetaMemory来存储事实,当事实集合变化不大时,保存在 alpha和 beta节点中的状态不需要太多变化,避免了大量的重复计算,提高了匹配效率
  • 匹配速度与规则数目无直接关系,因为事实只有满足本节点才会继续向下沿网络传递

  • 解决冲突:按一定的策略从被触发的多条规则中选择一条
  • 执行动作:执行被选择出来的规则的RHS,从而对WM进行一定的操作
  • 产生式系统=WM+PM+推理引擎

基于向量表示的推理

图谱稀疏性问题

关系推理的评价指标

Hit@n:所有预测样本中排名在n以内的比例,n常用的取值为1,3,10
MR:Mean Rank所有预测样本的平均排名
MRR : Mean Reciprocal Rank 先对所有预测样本的排名求倒数,然后求平均

嵌入学习


TransH



TransR



TransD



ComlEX



ConvE



RotaE



BetaE



强化学习



稀疏性问题
无尺度(Scale-free)是很多复杂系统拥有共同的重要特性:大部分节点只有少数几个连结,而某些节点却拥有与其他节点的大量连结,并满足幂律分布。在知识图谱中,只有少量关系拥有大量的三元组,而大部分关系只有少量知识

对抗关系学习一Adversarial Relational Learning

wRAN:利用关系对抗网络提升长尾部分的关系推理和补全的效能

MetaR一Meta Relational Learning

元关系学习:在只有少量关系样本的情况实现知识图谱推理——Few-shot Reasoning
基本思想:在Meta-Learning阶段挖掘关系自身以及关系之间的Meta knowledge ,在预测阶段利用rel-meta对关系预测模型进行fine-tune,从而提升模型在少样本情况下的预测效果

规则推理

利用图结构:PRA



AMIE


统计指标
操作
算法

可微规则学习:NeutralLP





可微规则学习:DRUM



利用规则增强知识图谱表示学习
规则+嵌入:IterE

Ontology Embedding

Ontology Embedding的侧重于对本体中概念体系进行学习,这包括类与类之间的关系,类与实例之间的关系,以及类与属性之间的关系等
Ontology Embedding vs KG Embedding
  • 本体嵌入和知识图谱嵌入本质上都是一种知识表示结构的嵌入,只不过嵌入的内容有所不同,本质上也没有严格的区分和界限
  • Onto Embedding侧重于Tbox概念层的表示学习
  • KG Embedding则更加侧重于Abox实例层的表示学习
  • 概念层的表示学习通常被用来增强实例层的学习效果,同时,实例层也被经常用来实现概念层,如本体axiom的学习

EL




核心是两个映射函数:f(x)和r(x)
  • f(x)函数的作用是完成符号空间到向量空间的映射,即将一个类映射到向量空间中的某个球心,并将关系映射为一个向量
  • r(x)函数的作用是将某个类映射到某个球的半径



Quantum Embedding

Quantum Embedding借用了量子逻辑理论,将所有的层次关系都视为基于量子理论表示的向量空间之间的层次关系
子概念和子关系的表示就在其父概念和父关系所对应的空间里
实体及其按某种关系的组合也落在其所属于的概念类的空间里

Onto2Vec & OPA2Vec &OWL2Vec



JOIE

JOIE模型区分本体视图ontological view和实例视图instance view。
  • 本体视图主要关注Tbox层的类及关系的描述
  • 实例视图则主要关注实体及实体之间关系的描述

MuPP

MuPP利用双曲几何模型来建模本体概念的层次结构
在欧几里德空间中,球的表面积会随着半径的增加而呈多项式增加,但是在双曲空间中,表面积的增长是呈指数级
这就意味着,从本体概念层次树的根部节点向外扩展,在双曲空间中拥有更多的空间来区分叶节点










评论列表

    推理
    知识图谱推理
    基于符号表示的推理基于向量表示的推理