Three New Probabilistic Models for Dependency Parsing

  这篇文章作为依存分析领域(Dependency Parsing)具有开创行的工作,作者是宾大的 J. Eisner。

  文章并提出一种灵活的依存分析器,可以同时实现词性标注和简单的依存分析。

  这篇文章最主要的工作就是提出三种不同的词汇化依存概率模型。

  1. lexical atfinity mode

  通过两个词之间的密切关系约束词之间的约束关系,在该模型中,词 i 连接到词 j 概率应该是词汇敏感的,也就说依赖于 i 和 j 的 (tag, word)对。

  对于一个依存分析,其概率可由下式计算,其中如果词 i 是词 j 的父亲,则变量 Lij 为1,否则为0。


prob

  模型1排除了那些不合法的依存分析,例如,依存关系交叉,一个词存在多个父亲节点的情况,从而可以保证在该模型的词汇化约束下找到最可能的词汇化依存结构。

  2. sense tagging model:

  话说,我暂时没太看懂,囧

  3. generative model:

  生成模型每次添加一个词 i,然后生成一个 (tag, word) 马尔可夫序列作为其左孩子,再生成一个 (tag, word) 马尔可夫序列作为右孩子,生成马尔可夫序列的过程依赖于词 i 以及它的词性标记。从句子的特殊状态 start 开始,产生的每一个符号作为其孩子,由近及远,直到 stop 状态。对每个孩子也递归执行该过程。

  慢慢开始,现在很多地方看不懂的,也许后面学习中就懂了。

发表评论

电子邮件地址不会被公开。 必填项已用*标注