以往的事件抽取方法都基于神经网络模型抽取的密集特征和预训练语言模型的上下文表示。但是,它们(1)严重依赖实体识别进行事件论元抽取,特别是通常需要采用多步骤方法来进行事件论元抽取。(2)忽略了不同论元角色间的语义相似性。
1)针对事件抽取任务首次提出了一种新的范式——将其表述为问答(QA)/机器阅读理解(MRC)任务。
2)设计了用于触发检测的固定问题模板和用于抽取每个论元角色的各种问题模板。
(1)该方法不需要实体标注(黄金信息或预测的实体信息)。更具体地说,它是采用端到端模型进行事件论元抽取,不需要实体识别的任何预处理步骤。
(2)问答范式能够学习不同模型中语义相似的论元角色而进行事件论元抽取。
使用BERT(Devlin et al., 2019)作为基础模型,BERT_QA_Trigger预测句子中每个token的类型,而BERT_QA_Arg预测论元范围的开始和结束偏移量。
1)缺乏获取论元范围的精确边界的知识。例如,在“Negotiations between Washington and Pyongyang on their nuclear dispute have been set for April 23 in Beijing …”中,对于ENTITY角色,应抽取两个论点范围(“Washington”和“Pyongyang”)。
2)缺乏文档级上下文的推理。
3)数据和词汇稀疏性.