单词 | markov chain |
释义 | Markov chain ['mɑ:kɔ:f] 【统计学】 马尔可夫链(一个随机事件的序列,其中每一个事件均由紧靠它的前一个事件决定) [亦作 Markoff chain] 以上来源于:《21世纪大英汉词典》 Markov chain/ˈmɑːkɒf/n.【统】马尔可夫链详细释义源自:《新世纪英汉大词典》Collins外研社 n. /ˈmɑːkɒf ˌtʃeɪn/马尔可夫链【统计学】英汉大汉英同义词反查☞bolo tieMarkov chain马尔可夫链Markov chain马可夫炼Markov |
随便看 |
|
英汉汉英词典包含3953260条英汉及汉英翻译词条,涵盖了常用英语单词及词组短语的翻译及用法,是英语学习的必备工具。