一直以来感觉好多地方都吧Word Embedding和word2vec混起来一起说,所以导致对这俩的区别不是很清楚. 其实简单说来就是word embedding包含了word2vec,word2vec是word embedding的一种,将词用向量表示. 1.最简单的word embedding是把词进行基于词袋(BOW)的One-Hot表示.这种方法,没有语义上的理解.把词汇表中的词排成一列,对于某个单词 A,如果它出现在上述词汇序列中的位置为 k,那么它的向量表示就是“第 k 位为1,其他…