
在 Word2Vec 模型中,CBOW(Continuous Bag of Words,连续词袋模型)和 Skip-gram(跳元模型)是两种核心的网络结构,它们的主要区别在于预测方向、训练速度以及对低频词的处理效果。


<<< 左右滑动见更多 >>>
CBOW 的核心思想是在固定滑动窗口内,根据上下文词来预测中心词。它会将窗口内所有上下文词对应的词向量取均值,作为输入来预测中心词的概率分布。

Skip-gram 的核心思想则刚好相反,它是根据中心词来预测其上下文各个词。它利用中心词的向量表示,去最大化滑动窗口中所有上下文词出现的条件概率。

训练速度:CBOW 通常比 Skip-gram 训练速度更快。
低频词效果:Skip-gram 在处理低频词(不经常出现的词)时表现更好,能够捕捉更丰富的语义关系。
滑动窗口大小:在实际应用中,CBOW 的窗口大小通常设置在 5 左右,而 Skip-gram 的窗口大小通常设置在 10 左右。
词向量的构成:
大厂算法工程师|写作八年累计数百万字出版《跟我一起学机器学习》|《跟我一起学深度学习》|《一本書晉升深度學習世界級大師》,深谙AI算法入门之道!订阅知识库两个月带你轻松弄懂机器学习

往期精选推荐
点击下图购买作者编著新书