试题详情

关于CBOW与Skip-Gram算法,以下说法不正确是?

ACBOW和Skip-Gram都是可以训练向量的方法,但是skip-Gram要比CBOW更快一些

BCBOW是根据某个词前面的n个或者前后n个连续的词,来计算某个词出现概率

C无论是CBOW模型还是skip-gram模型,都是可以Huffman树作为基础的

DSkip-Gram就是根据某个词然后分别计算它前后几个词的各个概率