请输入您要查询的英文单词或汉字:

 

单词 markov chain
释义 Markov chain ['mɑ:kɔ:f] 【统计学】 马尔可夫链(一个随机事件的序列,其中每一个事件均由紧靠它的前一个事件决定) [亦作 Markoff chain] 以上来源于:《21世纪大英汉词典》 Markov chain/ˈmɑːkɒf/n.【统】马尔可夫链详细释义源自:《新世纪英汉大词典》Collins外研社 n. /ˈmɑːkɒf ˌtʃeɪn/马尔可夫链【统计学】英汉大汉英同义词反查☞bolo tieMarkov chain马尔可夫链Markov chain马可夫炼Markov
随便看

 

英汉汉英词典包含3953260条英汉及汉英翻译词条,涵盖了常用英语单词及词组短语的翻译及用法,是英语学习的必备工具。

 

Copyright © 2000-2023 1mrm.com All Rights Reserved
京ICP备2021023879号 更新时间:2025/4/25 17:51:26