方面级情感分析论文泛07:BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis
2021/9/7 11:06:36
本文主要是介绍方面级情感分析论文泛07:BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
提示1:原文链接
提示2:代码链接
文章目录
- 前言
- 一、论文信息
- 二、笔记要点
- 2.1 目前存在的问题
- 2.2 目前解决方法
- 2.3 本文方法和创新点
- 2.4 模型结构
- 2.5 实验结果
- 2.5.2 算法对比
- 2.6 总结和展望
- 总结
前言
本篇博客主要是对《BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis》进行了泛读,并对其进行了简单地记录,以帮助大家快速了解此篇论文的要点。
一、论文信息
- 论文名:《BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis》
- 作者:Hu Xu, Bing Liu, Lei Shu, Philip S. Yu
- 领域:ABSA
- 关键词:BERT、Post-Training、Aspect-based Sentiment Analysis
- 发表年份:2019
- 会议/期刊名:NAACL
二、笔记要点
2.1 目前存在的问题
目前的在线问答系统不能很好的回答用户问题
2.2 目前解决方法
1、采用众包用户答案的方式,但是存在延迟不适合作为交互系统,并且仍然有很多没有答案;
2、已有的采用完整评论给用户的方法不可取,因为用户阅读它非常的耗时;
2.3 本文方法和创新点
创新点:
受机器阅读理解 (MRC) 最近在正式文档上取得成功的启发,本文探讨了将客户评论转化为可用于回答用户问题的大量知识来源的潜力。我们称这个问题为复习阅读理解 (RRC)。
方法:
post-training
2.4 模型结构
采用BERT进行的微调;
2.5 实验结果
本文基于基于方面的情感分析的流行基准构建了一个名为 ReviewRC 的 RRC 数据集,如下图所示:
2.5.2 算法对比
对比模型如下:
DrQA
DrQA+MRC
For AE and ASC:
DE-CNN
MGAN
BERT
BERT-DK
BERT-MRC
BERT-PT
对比结果如下:
2.6 总结和展望
- 提出了复习阅读理解(RRC)的新问题。
- 为了解决这个新问题,为 RRC 创建了一个带注释的数据集ReviewRC。
- 提出了一种通用的训练后方法来改善 RRC、AE 和 ASC
- 微调前的后训练方法是有效的。
总结
以上就是本篇博客的全部内容了,希望对你有所帮助。
这篇关于方面级情感分析论文泛07:BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2025-01-10Rakuten 乐天积分系统从 Cassandra 到 TiDB 的选型与实战
- 2025-01-09CMS内容管理系统是什么?如何选择适合你的平台?
- 2025-01-08CCPM如何缩短项目周期并降低风险?
- 2025-01-08Omnivore 替代品 Readeck 安装与使用教程
- 2025-01-07Cursor 收费太贵?3分钟教你接入超低价 DeepSeek-V3,代码质量逼近 Claude 3.5
- 2025-01-06PingCAP 连续两年入选 Gartner 云数据库管理系统魔力象限“荣誉提及”
- 2025-01-05Easysearch 可搜索快照功能,看这篇就够了
- 2025-01-04BOT+EPC模式在基础设施项目中的应用与优势
- 2025-01-03用LangChain构建会检索和搜索的智能聊天机器人指南
- 2025-01-03图像文字理解,OCR、大模型还是多模态模型?PalliGema2在QLoRA技术上的微调与应用