关于CBOW与Skip-Gram算法,以下说法不正确的是()
ACBOW是根据某个词前面的n个词或者前后n个连续的词,来计算某个词出现的概率
BSkip-Gram是根据某个词然后分别计算它前后几个词的各个概率
C CBOW和Skip-Gram都是可以训练词向量的方法,但是Skip-Gram要比CBOW更快一些
D无论是CBOW模型还是skip-gram模型,都是以Huffman树作为基础的
ACBOW是根据某个词前面的n个词或者前后n个连续的词,来计算某个词出现的概率
BSkip-Gram是根据某个词然后分别计算它前后几个词的各个概率
C CBOW和Skip-Gram都是可以训练词向量的方法,但是Skip-Gram要比CBOW更快一些
D无论是CBOW模型还是skip-gram模型,都是以Huffman树作为基础的