text stringlengths 0 18.7k |
|---|
FL) 三 |
好十 2 刀_ 2 |
二二 (十) 一元(十) 1 .(-) =(-) |
宙二一工 人 (a 有 一 X 】 十 兄_一1 < (z 尖呈PT和 |
其中| 代表第i 个特征,即每一个特征都会有一个 F-score。Xx 拔是 |
所有该特征值的平均数,而 (+) , (CC) 则分别代表所有阳性样本 |
和阴性样本的特征值 〈的平均数) 。代表k 是对于具体第i 个特征 |
的每个实例,分母的两个 sigma 可以理解为阳性样本与阴性样本的 |
特征值的方差。F-score 越大说明该特征的辨别能力越强。 |
3. 特定热度问题的答复分析 |
对于特定热度为问题的分析,首先要进行问题分类,在问 |
题分类的基础上通过深度学习中的卷积神经网络来设计答复模型, |
其关键在于关键词的分析判断,优化模型训练市场。根据评价答复 |
系统的特点,在政务系统中通过留言来收集语料信息,用这些信息 |
构建答复系统的语料库。 |
基于卷积神经网络的系统设计 |
卷积神经网络的三个优点 一、稀朴的交互性,二、参数共享性 |
三、等价表示性。 |
所以选择卷积神经网络来进行模型来训练。神经网路的结构设计包 |
括以下六种. |
HL 表示 hide layer 隐藏层,它的激活函数设计成 |
z=tanh(Wx+B),CNN 是卷积层,P 是池化层,池化步长为1,T |
是tanh 层,P+T 的输出是向量表示,最终的输出是两个向量的 cos |
相似度 |
图中HL或 CNN 连起来的表示他们共享相同的权重。CNN 的输出是 |
几维的取决于做多少个卷积特征,如果有 4 个卷积,那么结果就是 |
4*3 的矩阵。 |
10 |
2 答复模型构建 |
第一步,卷积运算在一定的范围内做平移并取平均值 |
| F(r)g(x--T)dr |
总之卷积就是先打乱,再到加。对t 积分,而不是对于X 积分。就是 |
对于国定的 x,找到 x 附近的所有变量,并且求两个函数的乘积,并 |
求和。 |
第二步,多层卷积和池化 |
利用一次卷积运算(哪怕是多个卷积核)提取的特征往往是局部的, |
难以提取出比较全局的特征, 因此需要在一层卷积基础上继续做卷积 |
计算 ,这也就是多层卷积 |
池化是一种降维的方法。按照卷积计算得出的特征向量维度大的 |
惊人,不但会带来非常大的计算量,而且容易出现过拟合,解决过 |
拟合的办法就是让模型尽量“泛化”,也就是再“模糊”一点,那 |
么一种方法就是把图像中局部区域的特征做一个平滑压缩处理,这 |
源于局部图像一些特征的相似性(即局部相关性原理)。 |
具体做法就是对卷积计算得出的特征在局部范围内算出一个平均值 |
(或者取最大值、或者取随机采样值)作为特征值,那么这个局部范围 |
(假如是 10*10),就被压缩成了 1*1,压缩了 100 倍,这样虽然更 |
“模糊”了,但是也更“泛化”了。通过取平均值来池化叫做平均 |
池化,通过取最大值来池化叫做最大池化。 |
J |
第三步,模型构建 |
卷积核中的因子(X1 或X0)其实就是需要学习的参数,也就是郑 |
积核矩阵元素的值就是参数值。多层神经网络为了方便用链式求导 |
法则更新参数,我们设计 sigmoid 函数作为激活函数,我们同时也 |
发现卷积计算实际上就是多层神经网络中的 Wx 矩阵乘法,同时要 |
加上一个偏执变量 b,那么前向传到的计算过程就是: |
hrs(z) 一ai 一Da 十2 0 十3 5 十大 ) |
如果有更多层,计算方法相同 |
因为是有监督学习,所以模型计算出的y和观察值y 之间的偏差用 |
于更新模型参数,参数更新公式是: |
局 |
me |
9 |
了0 =了0一a .JJ(有有晶 |
_ 0, 9 Jrryr |
名一外一本亲7(了 |
偏导计算公式是: |
了一5 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.