【持续学习系列(四)】《Lifelong-RL》

发布时间:2023年12月28日

一、论文信息

1 标题

Lifelong-RL: Lifelong Relaxation Labeling for Separating Entities and Aspects in Opinion Targets

2 作者

Lei Shu, Bing Liu, Hu Xu, and Annice Kim

3 研究机构

  1. Department of Computer Science, University of Illinois at Chicago, USA
  2. Center for Health Policy Science and Tobacco Research, RTI International, USA

二、主要内容

这篇论文旨在解决意见挖掘中的一个重要问题:将意见目标(opinion targets)分为实体(entities)和方面(aspects)。意见目标可以是实体(如产品或服务的整体)或实体的某个方面(如产品的特性或属性)。为了有效地进行意见挖掘,需要区分这些目标,因为它们代表了关于意见的不同方面。论文提出了一种新的算法Lifelong-RL,该算法基于终身机器学习和松弛标签(relaxation labeling)来解决这个问题。

三、相关研究

相关研究包括目标提取方法、情感分类、转移学习、多任务学习以及终身机器学习。这些研究为本文提供了理论基础和方法论支持。

四、解决方案

松弛标签算法(Relaxation Labeling, RL)

输入:

  • G = ( V , E ) G = (V, E) G=(V,E),其中 V V V 是节点集合, E E E 是边集合。
  • 每个节点 t i ∈ V t_i ∈ V ti?V 与一个多项式分布 P ( L ( t i ) ) P(L(t_i)) P(L(ti?)) 相关联,表示标签 L ( t i ) L(t_i) L(ti?) 的概率。
  • 每条边 ( t i , t j ) ∈ E (t_i, t_j) ∈ E (ti?,tj?)E 与两个条件概率分布 P ( L ( t i ) ∣ L ( t j ) ) P(L(t_i)|L(t_j)) P(L(ti?)L(tj?)) P ( L ( t j ) ∣ L ( t i ) ) P(L(t_j)|L(t_i)) P(L(tj?)L(ti?)) 相关联,表示标签 L ( t j ) L(t_j) L(tj?) 对标签 L ( t i ) L(t_i) L(ti?) 的影响以及反之。

计算过程:

  1. 初始化每个节点的标签分布 P 0 ( L ( t i ) ) P_0(L(t_i)) P0?(L(ti?))
  2. 对于每个迭代 r r r,计算每个节点的标签分布的变化量 Δ P r + 1 ( L ( t i ) ) ΔP_{r+1}(L(t_i)) ΔPr+1?(L(ti?)),根据邻居节点的标签和条件概率分布。
  3. 更新每个节点的标签分布 P r + 1 ( L ( t i ) ) P_{r+1}(L(t_i)) Pr+1?(L(ti?)),直到收敛。

输出:

  • 每个节点的最终标签 L ( t i ) L(t_i) L(ti?),即其最高概率的标签。

数学公式:

  • Δ P r + 1 ( L ( t i ) ) ΔP_{r+1}(L(t_i)) ΔPr+1?(L(ti?)) 的计算公式:
    Δ P r + 1 ( L ( t i ) ) = ∑ t j ∈ N e ( t i ) w ( t j ∣ t i ) ? ∑ y ∈ Y ( P ( L ( t i ) = y , L ( t j ) = y ) ? P r ( L ( t j ) = y ) ) \Delta P_{r+1}(L(t_i)) = \sum_{t_j \in Ne(t_i)} w(t_j|t_i) \cdot \sum_{y \in Y} (P(L(t_i) = y, L(t_j) = y) \cdot P_r(L(t_j) = y)) ΔPr+1?(L(ti?))=tj?Ne(ti?)?w(tj?ti?)?yY?(P(L(ti?)=y,L(tj?)=y)?Pr?(L(tj?)=y))
  • 更新后的标签分布 P r + 1 ( L ( t i ) ) P_{r+1}(L(t_i)) Pr+1?(L(ti?)) 的计算公式:
    P r + 1 ( L ( t i ) ) = P r ( L ( t i ) ) ( 1 + Δ P r + 1 ( L ( t i ) ) ) ∑ y ∈ Y P r ( L ( t i ) = y ) ( 1 + Δ P r + 1 ( L ( t i ) = y ) ) P_{r+1}(L(t_i)) = \frac{P_r(L(t_i))(1 + \Delta P_{r+1}(L(t_i)))}{\sum_{y \in Y} P_r(L(t_i) = y)(1 + \Delta P_{r+1}(L(ti) = y))} Pr+1?(L(ti?))=yY?Pr?(L(ti?)=y)(1+ΔPr+1?(L(ti)=y))Pr?(L(ti?))(1+ΔPr+1?(L(ti?)))?
  • 最终标签 L ( t i ) L(t_i) L(ti?) 的选择:
    L ( t i ) = arg?max ? y ∈ Y P ( L ( t i ) = y ) L(t_i) = \argmax_{y \in Y} P(L(t_i) = y) L(ti?)=yYargmax?P(L(ti?)=y)

终身机器学习(Lifelong Machine Learning, LML)

输入:

  • 知识库(Knowledge Base, KB),包含过去任务中提取的图和分类结果。
  • 当前任务的图 G ′ = ( V ′ , E ′ ) G' = (V', E') G=(V,E) 和节点的初始标签分布。

计算过程:

  1. 使用过去任务中的知识来帮助当前任务的标签分布初始化。
  2. 利用过去任务中的目标标签来调整当前任务的初始标签概率分布。
  3. 结合松弛标签算法进行迭代更新,直到收敛。

输出:

  • 当前任务中每个节点的最终标签。

数学公式:

  • 初始化概率分布 P 0 ( L ( t i ) ) P_0(L(t_i)) P0?(L(ti?)) 的更新:
    P L L 1 , 0 ( L ( t ) ) = P d u + 1 , 0 ( L ( t ) ) + λ ? C D s L ( t ) D + λ D P_{LL1,0}(L(t)) = P_{du+1,0}(L(t)) + \lambda \cdot \frac{CDs_{L(t)}}{D + \lambda D} PLL1,0?(L(t))=Pdu+1,0?(L(t))+λ?D+λDCDsL(t)??
  • 条件概率分布 P ( L L 1 ) ( L ( t i ) ∣ L ( t j ) ) P(LL1)(L(t_i)|L(t_j)) P(LL1)(L(ti?)L(tj?)) 的更新:
    P L L 2 ( L ( t i ) ∣ L ( t j ) ) = P L L 1 ( L ( t i ) ∣ L ( t j ) ) + λ ? C D s L ( t i ) , L ( t j ) D + λ D P_{LL2}(L(t_i)|L(t_j)) = P_{LL1}(L(t_i)|L(t_j)) + \lambda \cdot \frac{CDs_{L(t_i), L(t_j)}}{D + \lambda D} PLL2?(L(ti?)L(tj?))=PLL1?(L(ti?)L(tj?))+λ?D+λDCDsL(ti?),L(tj?)??

这里, λ \lambda λ是一个控制参数,用于调整过去知识对当前任务影响的强度。 C D s L ( t ) CDs_{L(t)} CDsL(t)? C D s L ( t i ) , L ( t j ) CDs_{L(ti), L(tj)} CDsL(ti),L(tj)?分别表示过去任务中目标 t t t被标记为 L ( t ) L(t) L(t)和目标 t i t_i ti? t j t_j tj? 同时被标记为 L ( t i ) L(t_i) L(ti?) L ( t j ) L(t_j) L(tj?) 的领域数量。 D D D是过去任务的总数。

五、实验环节

论文使用两个数据集进行实验:一组包含8个注释的评论数据集,用于计算精确度、召回率和F1分数;另一组包含100个不同产品或领域的未标记评论数据集,作为过去领域数据在终身机器学习中的处理。实验结果表明,Lifelong-RL方法显著优于基线方法。

六、进一步探索点:

论文指出,虽然实验结果很有前景,但还有进一步的探索空间,例如如何更有效地利用知识库中的信息,以及如何提高算法在不同领域中的泛化能力。

七、总结

论文提出了一种新的算法Lifelong-RL,用于在意见挖掘中区分实体和方面。通过结合松弛标签算法和终身机器学习,该方法在实验中表现出色,显著提高了目标分类的准确性。这项工作为意见挖掘领域提供了一种新的思路和方法。

文章来源:https://blog.csdn.net/weixin_45225032/article/details/135272035
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。