博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
序列模型-NLP和词嵌入
阅读量:7289 次
发布时间:2019-06-30

本文共 786 字,大约阅读时间需要 2 分钟。

1、词汇表征:

one-hot表征、词嵌入

2、学习词嵌入

word2vec:Word2vec算法是一种简单的计算更加高效的方式来实现对词嵌入的学习

Skip-gram:所做的是在语料库中选定某个词(Context),随后在该词的正负10个词距内取一些目标词(Target)与之配对,构造一个用Context预测输出为target的监督学习问题,训练一个如下图结构的网络:

o(c)  -> E -> e(c) -> O(softmax) -> y_

softmax:输出context下target出现的条件概率:

p(t|c) = exp(θte(c))/∑exp()

 

Word2vec中还有一种CBOW模型,它的工作方式是采样上下文中的词来预测中间的词,与Skip-gram相反

负采样模型中构造了一个预测给定的单词是否为一对Context-target的新监督学习问题,网络结构可以是skip-gram或者cbow

 

 

 

 训练过程中,从预料库中选定Context,输入的词为一对Context-Target,则标签设置为1。另外任取k对非Context-Target,作为负样本,标签设置为0.只有较少的数据,k的取值5~20的话,能达到比较好的效果;拥有大量的训练数据,k的取值取2~5较为合适。原网络中的softmax变成多个Sigmoid单元,输出Context-Target(c,t)对为正样本(y=1)的概率

模型中一般采用以下公式来计算选择某个词作为负样本的概率:

其中代表语料库中单词wi的出现的频率

 

softmax:

将n维实值向量转化为取值范围在(0,1)之间的n维实值向量,且和为1,多用于表征函数,softmax(x) = softmax(x+c);

转载于:https://www.cnblogs.com/lxw003/p/8602765.html

你可能感兴趣的文章
随机数——随机函数——大数随机及等概率探讨(基于C语言)
查看>>
PowerDesigner12.5 物理数据模型的报表打印
查看>>
最近开了51CTO 的技术文档
查看>>
linux 经典常用shell收藏
查看>>
以太网最短帧长为什么是64BYTE?
查看>>
同台服务器安装多个tomcat
查看>>
Redis持久化-数据丢失及解决
查看>>
iftop 监控linux,centos服务器网络流量
查看>>
select不占一行
查看>>
s3c2440芯片手册
查看>>
MySQL基础
查看>>
我的友情链接
查看>>
CKEditor的使用方法
查看>>
Jquery之table中根据行选中,进行背景变色和radio选中
查看>>
Javascript------反射机制
查看>>
python学习笔记二
查看>>
在MFC中将类串行化存储
查看>>
Jetty服务器的使用
查看>>
win7系统,任务栏小窗口预览,一闪一闪的;同时,不能正常alt+tab
查看>>
Linux基础命令---diffstat
查看>>