基于BAGCNN的方面级别情感分析研究

TP391; [目的]解决传统方面级别情感分析模型在词嵌入过程中未将上下文与方面词信息融合、需以复杂的下游结构提取特征等问题.[方法]提出一种基于BERT的注意力门控卷积模型(BAGCNN),该模型由预训练B E RT模型生成融合上下文语义的文本和方面词特征表示,并引入多头自注意力机制解决方面词长距离依赖问题,最后利用门控卷积网络并行地选择性提取与方面词信息相关的多层次上下文特征.[结果]实验结果表明,与使用循环神经网络中效果最好的基准模型相比,本文模型精度在Restaurant、Laptop和Twitter三个数据集上分别提升4.24、4.01和3.89个百分点,且模型下游并行结构尺寸减小了...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:数据分析与知识发现 2021-12, Vol.5 (12), p.37-47
Hauptverfasser: 余本功, 张书文
Format: Artikel
Sprache:chi
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page 47
container_issue 12
container_start_page 37
container_title 数据分析与知识发现
container_volume 5
creator 余本功
张书文
description TP391; [目的]解决传统方面级别情感分析模型在词嵌入过程中未将上下文与方面词信息融合、需以复杂的下游结构提取特征等问题.[方法]提出一种基于BERT的注意力门控卷积模型(BAGCNN),该模型由预训练B E RT模型生成融合上下文语义的文本和方面词特征表示,并引入多头自注意力机制解决方面词长距离依赖问题,最后利用门控卷积网络并行地选择性提取与方面词信息相关的多层次上下文特征.[结果]实验结果表明,与使用循环神经网络中效果最好的基准模型相比,本文模型精度在Restaurant、Laptop和Twitter三个数据集上分别提升4.24、4.01和3.89个百分点,且模型下游并行结构尺寸减小了1.27MB.[局限]本文模型在文本长度差异大的数据集中分类效果较差.[结论]在BERT和多头自注意力机制辅助下,BAGCNN模型中门控卷积网络可有效过滤与方面词无关的上下文信息.
doi_str_mv 10.11925/infotech.2096-3467.2021.0554
format Article
fullrecord <record><control><sourceid>wanfang_jour</sourceid><recordid>TN_cdi_wanfang_journals_xdtsqbjs202112004</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><wanfj_id>xdtsqbjs202112004</wanfj_id><sourcerecordid>xdtsqbjs202112004</sourcerecordid><originalsourceid>FETCH-LOGICAL-s1044-48efdc500c5d7bfac1d5fefc4386cd42666943ced556dcd6c052b703168f1f093</originalsourceid><addsrcrecordid>eNo9jz1Lw1AYhe-gYKn9GQ4ON773600y1qBVKHXRuST3Q1skRW9Fd6t0kg7iIGjFRcRdML_HJPgvrChO5_AM5-EQssYgYCzmamOQu9HY6qOAQ4xUSAwXjbMAlJJLpPFPV0jL-0EGQnEWYYgNQst58VncbLY7Sa9X30-qu4-vh-e6eCmnb9XlVTWZl9Pr6nFWP93Wr--rZNmlx962_rJJDra39pMd2t3r7CbtLvUMpKQyss5oBaCVCTOXamaUs05LEaE2kiNiLIW2Rik02qAGxbMQBMPIMQexaJL1393zNHdpftgfjs5O84Wxf2HG_iQb-p97jANI8Q2I7lZV</addsrcrecordid><sourcetype>Aggregation Database</sourcetype><iscdi>true</iscdi><recordtype>article</recordtype></control><display><type>article</type><title>基于BAGCNN的方面级别情感分析研究</title><source>国家哲学社会科学学术期刊数据库 (National Social Sciences Database)</source><creator>余本功 ; 张书文</creator><creatorcontrib>余本功 ; 张书文</creatorcontrib><description>TP391; [目的]解决传统方面级别情感分析模型在词嵌入过程中未将上下文与方面词信息融合、需以复杂的下游结构提取特征等问题.[方法]提出一种基于BERT的注意力门控卷积模型(BAGCNN),该模型由预训练B E RT模型生成融合上下文语义的文本和方面词特征表示,并引入多头自注意力机制解决方面词长距离依赖问题,最后利用门控卷积网络并行地选择性提取与方面词信息相关的多层次上下文特征.[结果]实验结果表明,与使用循环神经网络中效果最好的基准模型相比,本文模型精度在Restaurant、Laptop和Twitter三个数据集上分别提升4.24、4.01和3.89个百分点,且模型下游并行结构尺寸减小了1.27MB.[局限]本文模型在文本长度差异大的数据集中分类效果较差.[结论]在BERT和多头自注意力机制辅助下,BAGCNN模型中门控卷积网络可有效过滤与方面词无关的上下文信息.</description><identifier>ISSN: 2096-3467</identifier><identifier>DOI: 10.11925/infotech.2096-3467.2021.0554</identifier><language>chi</language><publisher>合肥工业大学管理学院 合肥 230009</publisher><ispartof>数据分析与知识发现, 2021-12, Vol.5 (12), p.37-47</ispartof><rights>Copyright © Wanfang Data Co. Ltd. All Rights Reserved.</rights><lds50>peer_reviewed</lds50><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Uhttp://www.wanfangdata.com.cn/images/PeriodicalImages/xdtsqbjs/xdtsqbjs.jpg</thumbnail><link.rule.ids>314,777,781,27905,27906</link.rule.ids></links><search><creatorcontrib>余本功</creatorcontrib><creatorcontrib>张书文</creatorcontrib><title>基于BAGCNN的方面级别情感分析研究</title><title>数据分析与知识发现</title><description>TP391; [目的]解决传统方面级别情感分析模型在词嵌入过程中未将上下文与方面词信息融合、需以复杂的下游结构提取特征等问题.[方法]提出一种基于BERT的注意力门控卷积模型(BAGCNN),该模型由预训练B E RT模型生成融合上下文语义的文本和方面词特征表示,并引入多头自注意力机制解决方面词长距离依赖问题,最后利用门控卷积网络并行地选择性提取与方面词信息相关的多层次上下文特征.[结果]实验结果表明,与使用循环神经网络中效果最好的基准模型相比,本文模型精度在Restaurant、Laptop和Twitter三个数据集上分别提升4.24、4.01和3.89个百分点,且模型下游并行结构尺寸减小了1.27MB.[局限]本文模型在文本长度差异大的数据集中分类效果较差.[结论]在BERT和多头自注意力机制辅助下,BAGCNN模型中门控卷积网络可有效过滤与方面词无关的上下文信息.</description><issn>2096-3467</issn><fulltext>true</fulltext><rsrctype>article</rsrctype><creationdate>2021</creationdate><recordtype>article</recordtype><recordid>eNo9jz1Lw1AYhe-gYKn9GQ4ON773600y1qBVKHXRuST3Q1skRW9Fd6t0kg7iIGjFRcRdML_HJPgvrChO5_AM5-EQssYgYCzmamOQu9HY6qOAQ4xUSAwXjbMAlJJLpPFPV0jL-0EGQnEWYYgNQst58VncbLY7Sa9X30-qu4-vh-e6eCmnb9XlVTWZl9Pr6nFWP93Wr--rZNmlx962_rJJDra39pMd2t3r7CbtLvUMpKQyss5oBaCVCTOXamaUs05LEaE2kiNiLIW2Rik02qAGxbMQBMPIMQexaJL1393zNHdpftgfjs5O84Wxf2HG_iQb-p97jANI8Q2I7lZV</recordid><startdate>20211201</startdate><enddate>20211201</enddate><creator>余本功</creator><creator>张书文</creator><general>合肥工业大学管理学院 合肥 230009</general><general>合肥工业大学过程优化与智能决策教育部重点实验室 合肥 230009%合肥工业大学管理学院 合肥 230009</general><scope>2B.</scope><scope>4A8</scope><scope>92I</scope><scope>93N</scope><scope>PSX</scope><scope>TCJ</scope></search><sort><creationdate>20211201</creationdate><title>基于BAGCNN的方面级别情感分析研究</title><author>余本功 ; 张书文</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-LOGICAL-s1044-48efdc500c5d7bfac1d5fefc4386cd42666943ced556dcd6c052b703168f1f093</frbrgroupid><rsrctype>articles</rsrctype><prefilter>articles</prefilter><language>chi</language><creationdate>2021</creationdate><toplevel>peer_reviewed</toplevel><toplevel>online_resources</toplevel><creatorcontrib>余本功</creatorcontrib><creatorcontrib>张书文</creatorcontrib><collection>Wanfang Data Journals - Hong Kong</collection><collection>WANFANG Data Centre</collection><collection>Wanfang Data Journals</collection><collection>万方数据期刊 - 香港版</collection><collection>China Online Journals (COJ)</collection><collection>China Online Journals (COJ)</collection><jtitle>数据分析与知识发现</jtitle></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext</fulltext></delivery><addata><au>余本功</au><au>张书文</au><format>journal</format><genre>article</genre><ristype>JOUR</ristype><atitle>基于BAGCNN的方面级别情感分析研究</atitle><jtitle>数据分析与知识发现</jtitle><date>2021-12-01</date><risdate>2021</risdate><volume>5</volume><issue>12</issue><spage>37</spage><epage>47</epage><pages>37-47</pages><issn>2096-3467</issn><abstract>TP391; [目的]解决传统方面级别情感分析模型在词嵌入过程中未将上下文与方面词信息融合、需以复杂的下游结构提取特征等问题.[方法]提出一种基于BERT的注意力门控卷积模型(BAGCNN),该模型由预训练B E RT模型生成融合上下文语义的文本和方面词特征表示,并引入多头自注意力机制解决方面词长距离依赖问题,最后利用门控卷积网络并行地选择性提取与方面词信息相关的多层次上下文特征.[结果]实验结果表明,与使用循环神经网络中效果最好的基准模型相比,本文模型精度在Restaurant、Laptop和Twitter三个数据集上分别提升4.24、4.01和3.89个百分点,且模型下游并行结构尺寸减小了1.27MB.[局限]本文模型在文本长度差异大的数据集中分类效果较差.[结论]在BERT和多头自注意力机制辅助下,BAGCNN模型中门控卷积网络可有效过滤与方面词无关的上下文信息.</abstract><pub>合肥工业大学管理学院 合肥 230009</pub><doi>10.11925/infotech.2096-3467.2021.0554</doi><tpages>11</tpages></addata></record>
fulltext fulltext
identifier ISSN: 2096-3467
ispartof 数据分析与知识发现, 2021-12, Vol.5 (12), p.37-47
issn 2096-3467
language chi
recordid cdi_wanfang_journals_xdtsqbjs202112004
source 国家哲学社会科学学术期刊数据库 (National Social Sciences Database)
title 基于BAGCNN的方面级别情感分析研究
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-01-19T23%3A30%3A15IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-wanfang_jour&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.genre=article&rft.atitle=%E5%9F%BA%E4%BA%8EBAGCNN%E7%9A%84%E6%96%B9%E9%9D%A2%E7%BA%A7%E5%88%AB%E6%83%85%E6%84%9F%E5%88%86%E6%9E%90%E7%A0%94%E7%A9%B6&rft.jtitle=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90%E4%B8%8E%E7%9F%A5%E8%AF%86%E5%8F%91%E7%8E%B0&rft.au=%E4%BD%99%E6%9C%AC%E5%8A%9F&rft.date=2021-12-01&rft.volume=5&rft.issue=12&rft.spage=37&rft.epage=47&rft.pages=37-47&rft.issn=2096-3467&rft_id=info:doi/10.11925/infotech.2096-3467.2021.0554&rft_dat=%3Cwanfang_jour%3Exdtsqbjs202112004%3C/wanfang_jour%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rft_wanfj_id=xdtsqbjs202112004&rfr_iscdi=true