转自:https://dl.ccf.org.cn/lecture/lectureDetail?id=4663454624843776。
陈华钧,浙江大学阿里巴巴知识引擎联合实验室负责人。
摘要:知识图谱表示的向量化使得我们可以实现更易于泛化的可微分推理。然而, 基于表示学习实现的知识图谱推理和链接预测丢失了传统符号计算方法的可解释性,即:模型无去对基于向量计算或神经网络训练后得出的推理结论进行解释,导致只知结果但不知为什么。在很多真实的应用场景下,黑盒模型的可解释性缺乏导致很多应用不得不放弃采用