详情请进入 湖南阳光电子学校 已关注:人 咨询电话:0731-85579057 微信号:yp941688, yp94168
情感分析是一种常见的自然语言处理(NLP)方法的应用,特别是在以提取文本的情感内容为目标的分类方法中。通过这种方式,情感分析可以被视为利用一些情感得分指标来量化定性数据的方法。尽管情绪在很大程度上是主观的,但是情感量化分析已经有很多有用的实践,比如企业分析消费者对产品的反馈信息,门头沟哪里能修电器,或者检测在线评论中的差评信息。
简单的情感分析方法是利用词语的正负属性来判定。句子中的每个单词都有一个得分,乐观的单词得分为 +1,专业家电维修广告词,樂宜嘉热水器维修,悲观的单词则为 -1。然后我们对句子中所有单词得分进行加总求和得到一个 终的情感总分。很明显,这种方法有许多局限之处, 重要的一点在于它忽略了上下文的信息。例如,在这个简易模型中,因为“not”的得分为 -1,而“good”的得分为 +1,所以词组“not good”将被归类到中性词组中。尽管词组“not good”中包含单词“good”,没有经验能干物业电工,但是人们仍倾向于将其归类到悲观词组中。
另外一个常见的方法是将文本视为一个“词袋”。我们将每个文本看出一个1xN的向量,其中N表示文本词汇的数量。该向量中每一列都是一个单词,其对应的值为该单词出现的频数。例如,词组“bag of bag of words”可以被编码为 [2, 2, 1]。这些数据可以被应用到机器学习分类算法中(比如罗吉斯回归或者支持向量机),从而预测未知数据的情感状况。需要注意的是,电动牙刷维修点,家电售卖维修广告词编写,这种有监督学习的方法要求利用已知情感状况的数据作为训练集。虽然这个方法改进了之前的模型,但是它仍然忽略了上下文的信息和数据集的规模情况。
Word2Vec 和 Doc2Vec
近,谷歌开发了一个叫做 Word2Vec 的方法,该方法可以在捕捉语境信息的同时压缩数据规模。Word2Vec实际上是两种不同的方法:Continuous Bag of Words (CBOW) 和 Skip-gram。CBOW的目标是根据上下文来预测当前词语的概率。Skip-gram刚好相反:根据当前词语来预测上下文的概率(如图 1 所示)。这两种方法都利用人工神经网络作为它们的分类算法。起初,家电维修自学可以吗,每个单词都是一个随机 N 维向量。经过训练之后,该算法利用 CBOW 或者 Skip-gram 的方法获得了每个单词的 优向量。
现在这些词向量已经捕捉到上下文的信息。我们可以利用基本代数公式来发现单词之间的关系(比如,“国王”-“男人”+“女人”=“王后”)。这些词向量可以代替词袋用来预测未知数据的情感状况。该模型的优点在于不仅考虑了语境信息还压缩了数据规模(通常情况下,词汇量规模大约在300个单词左右而不是之前模型的100000个单词)。因为神经网络可以替我们提取出这些特征的信息,修家电维修,所以我们仅需要做很少的手动工作。但是由于文本的长度各异,家电维修转行成功实例,我们可能需要利用所有词向量的平均值作为分类算法的输入值,从而对整个文本文档进行分类处理。
然而,即使上述模型对词向量进行平均处理,我们仍然忽略了单词之间的排列顺序对情感分析的影响。作为一个处理可变长度文本的总结性方法,Quoc Le 和 Tomas Mikolov 提出了 Doc2Vec方法。除了增加一个段落向量以外,这个方法几乎等同于 Word2Vec。和 Word2Vec 一样,家电维修生意太惨,该模型也存在两种方法:Distributed Memory(DM) 和 Distributed Bag of Words(DBOW)。DM 试图在给定上下文和段落向量的情况下预测单词的概率。在一个句子或者文档的训练过程中,维修电工绝招绝技,段落 ID 保持不变,共享着同一个段落向量。DBOW 则在仅给定段落向量的情况下预测段落中一组随机单词的概率。(如图 2 所示)
一旦开始被训练,这些段落向量可以被纳入情感分类器中而不必对单词进行加总处理。这个方法是当前 先进的方法,家用电器故障维修,当它被用于对 IMDB 电影评论数据进行情感分类时,该模型的错分率仅为 7.42%。当然如果我们无法真正实施的话,一切都是浮云。幸运的是,genism(Python 软件库)中 Word2Vec 和 Doc2Vec 的优化版本是可用的。
Word2vec可以将词语转换为高维向量空间中的向量表示,修家电维修,它能揭示上下文关系。首先使用word2vec,将其训练得到词向量作为特征权重,开水器维修视频教程,然后根据情感词典和词性的两种特征选择方法筛选出有价值的特征, 后引入SVM训练和预测, 终达到情感分类的目的。使用word2vec会得到vectors.bin词向量模型文件,贵阳市家电维修,对于文本聚类而言,word2vec提供了一个内部命令来获得近义词列表。我们只需要输入distance 命令便可实现词语之间相似性的比较,吸引人的家电广告语,收购家用电器,继而达到聚类目的。
./distance vectors.bin
训练完成后,输入要聚类的词便可以得到与输入词语义 接近的 词列表与余弦距离。它包含正面情感词语,负面情感词语,正面评价词语和负面评价词语四个文件。
情感词典构建:中国知网(HowNet)中文情感分析用词语集;
SO-PMI:
PMI指的是点互信息PMI(a, b)=p(a,b)/(p(a)p(b))假设有一个句子集合,总量为N出现a次数为A,出现b次数为Ba和b同时出现在同一句话中的次数为C则有p(a)=A/N, p(b)=B/N,1至20集家电维修视频, p(a,b)=C/N带入到公式里就算出PMI了。
1、首先使用庖丁分词工具将微博内容分解成分离的单词,向阳春电器维修批发怎么样,肇庆怀集乐宜嘉热水器维修,然后我们按照使用70%的数据作为训练集并得到一个扩展的微博情感词典,使用SO-PMI算法进行词语情感倾向性分析
使用情感词典和联系信息分析文本情感具有很好的粒度和分析精确度。
利用 Python 实现的 Word2Vec 实例
在本节中,我们展示了人们如何在情感分类项目中使用词向量。我们可以在 Anaconda 分发版中找到 genism 库,怎样在小区里叫顾客清洗家电,或者可以通过 pip 安装 genism 库。从这里开始,你可以训练自己语料库(一个文本数据集)的词向量或者从文本格式或二进制格式文件中导入已经训练好的词向量。
我发现利用谷歌预训练好的词向量数据来构建模型是非常有用的,空调维修用到的工具,该词向量是基于谷歌新闻数据(大约一千亿个单词)训练所得。需要注意的是,这个文件解压后的大小是 3.5 GB。利用谷歌的词向量我们可以看到单词之间一些有趣的关系:
有趣的是,我们可以从中发现语法关系,比如识别出 高级或单词形态的单词:
“biggest”-“big”+“small”=“smallest”
“ate”-“eat”+“speak”=“spoke”
。五常市电动车维修培训学校,五常市电动车维修培训班,五常市电动车维修学校,五常市学电动车维修的学校,五常市电动车维修培训哪里好,五常市电动车维修培训学校,五常市电动车维修短期培训班,五常市电动车维修培训学校地址,五常市学电动车维修培训,五常市电动车维修培训哪里好,五常市电动车维修培训班,五常市电动车维修技术培训.(编辑:hnygdzxx888)(整理:五常市电动车维修培训学校)
湖南阳光电子学校教学特色