关于CBOW与Skip-Gram算法,以下说法不正确是?
ACBOW和Skip-Gram都是可以训练向量的方法,但是skip-Gram要比CBOW更快一些
BCBOW是根据某个词前面的n个或者前后n个连续的词,来计算某个词出现概率
C无论是CBOW模型还是skip-gram模型,都是可以Huffman树作为基础的
DSkip-Gram就是根据某个词然后分别计算它前后几个词的各个概率
ACBOW和Skip-Gram都是可以训练向量的方法,但是skip-Gram要比CBOW更快一些
BCBOW是根据某个词前面的n个或者前后n个连续的词,来计算某个词出现概率
C无论是CBOW模型还是skip-gram模型,都是可以Huffman树作为基础的
DSkip-Gram就是根据某个词然后分别计算它前后几个词的各个概率