您的位置: 专家智库 > >

国家自然科学基金(61172145)

作品数:4 被引量:24H指数:3
相关机构:广东石油化工学院贵州大学哈尔滨工业大学(深圳)更多>>
发文基金:国家自然科学基金广东省自然科学基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 4篇期刊文章
  • 3篇会议论文

领域

  • 6篇自动化与计算...
  • 1篇化学工程
  • 1篇电气工程

主题

  • 2篇情感分析
  • 2篇卷积
  • 2篇BASED
  • 1篇短时记忆
  • 1篇多粒度
  • 1篇依存
  • 1篇依存句法分析
  • 1篇语言处理
  • 1篇神经网
  • 1篇神经网络
  • 1篇水处理
  • 1篇水处理行业
  • 1篇情感词典
  • 1篇中文
  • 1篇自然语言
  • 1篇自然语言处理
  • 1篇网络
  • 1篇维度
  • 1篇无线
  • 1篇协议转换

机构

  • 4篇广东石油化工...
  • 1篇贵州大学
  • 1篇中国科学院
  • 1篇中国科学院大...
  • 1篇东莞长城开发...
  • 1篇广州中国科学...
  • 1篇哈尔滨工业大...

作者

  • 1篇肖金超

传媒

  • 1篇西南师范大学...
  • 1篇郑州大学学报...
  • 1篇计算机技术与...
  • 1篇南京邮电大学...

年份

  • 1篇2023
  • 1篇2021
  • 2篇2020
  • 1篇2013
  • 2篇2012
4 条 记 录,以下是 1-7
排序方式:
一种用于中文微博情感分析的多粒度门控卷积神经网络被引量:6
2020年
提出一种多粒度门控卷积神经网络(multiple grains-gated convolutional neural networks,MG-GCNN)模型。该模型通过结合词语和单字层面的上下文信息作为网络的输入信息,使网络模型可以充分利用上下文中不同粒度的文本特征信息,并且通过门控操作有效控制不同粒度信息的更新和传递。在不同领域微博文本数据集上的实验结果表明,所提出的MG-GCNN模型取得了比传统分类模型和深度网络模型更好的情感分类效果。
陈珂梁斌左敬龙朱兴统
关键词:卷积神经网络自然语言处理
基于情感词典和Transformer模型的情感分析算法研究被引量:14
2020年
随着情感分析研究的不断深入,情感词典和深度学习技术被广泛地应用于情感分析任务中。针对情感词典不能考虑词的上下文语义信息,循环神经网络获取整个句子序列信息有限和网络在反向传播时梯度消失或梯度爆炸问题,提出一种基于情感词典和Transformer的文本情感分析方法。该方法不仅可以充分地利用情感词典的特征信息,还能将与情感词相关联的其他词融入到该情感词中,帮助情感词更好地编码。此外,该方法还能够更专注于情感词的不同位置,更好地理解输入句子的单词顺序和表示词与词之间的距离。最后在NLPCC2014情感分析数据集进行实验,取得了比普通卷积神经网络,基于注意力机制的卷积神经网络还要好的分类效果。
陈珂谢博朱兴统
关键词:情感词典情感分析
Genetic Based Fuzzy Q-Learning Energy Management for Smart Grid
<正>For the energy management problems for demand response in electricity grid,a genetic based fuzzy Q-learning...
LI Xin~1
关键词:Q-LEARNING
文献传递
A Statistical Features-based Color Difference Classification Method
This paper presents a method for color difference based on Histogram statistical values. First, the color imag...
Su Feng-wuJiang Mai
文献传递
WIA-PA与EtherNet/IP互联及在水处理行业的应用
针对当前工业无线网络刚刚兴起、工业有线网络普遍存在的状况,通过对WIA-PA和EtherNet/IP协议的分析,提出了WIA-PA与EtherNet/IP网络互联的协议转换网关,详细介绍了协议转换网关的硬件组成和软件实现...
肖金超曾鹏张琼李德威
关键词:工业无线WIAETHERNET/IP协议转换
文献传递
基于最短依存路径和BERT的关系抽取算法研究被引量:4
2021年
深度学习模型依靠文本单一的词特征、位置特征在文本关系抽取任务中取得了不错的效果.但以往研究未能充分理解句子语义,数据稀疏和噪声传播问题对分类模型的影响依旧存在.随着注意力机制和预训练语言模型的研究不断深入,BERT(bidirectional encoder representations from transformers)预训练模型为自然语言处理任务提供了更好的词句表示.因此,该文提出结合BERT预训练语言模型获得更具语义表现力的特征表示,同时使用依存句法分析提取出最短依存路径作为额外信息输入分类模型,降低了噪声词汇对分类模型的影响.该算法在中文人物关系抽取数据集和SemEval2010 Task 8语料集上进行对比实验,最终实验效果F值可达到0.865.
陈珂陈振彬
关键词:关系抽取依存句法分析
基于预训练模型与记忆卷积网络的立场检测研究
2023年
立场检测研究旨在研究特定文本针对特定话题所表达的支持、中立或反对立场,在以往的中文文本立场分析研究方法中,未关注文本结构间的依赖关系,且评论文本所隐含的立场往往是隐晦和不敏感的。该文提出了基于双向Transformer的大规模预训练语言模型BERT(Bidirectional Encoder Representation from Transformers)和长短时记忆(LSTM)以及卷积神经网络(CNN)相结合的立场分析方法来解决这个问题,同时,为解决BERT模型针对不同数据样本输入向量维度不一所导致的误差,提出了一种最优字个数维度判定算法对BERT模型输入进行分析。模型搭建上创新地采用并行输入输出的方法,充分利用了LSTM的全局特征提取和CNN的局部特征提取的优势,并且所用BERT模型更能对隐晦特征及不敏感特征进行提取,利用这一方法可以有效地判定不同目标对某一特定话题所表达的支持、中立或者反对立场。经过对比传统模型以及现有立场分析方法表明,所提模型拥有较好的性能,其F1值达到0.883。
陈珂周浩轩王国权
关键词:立场分析
共1页<1>
聚类工具0