单词 | markov process |
释义 | Markov process 【统计学】 马尔可夫过程,无后效过程 [亦作 Markoff process] 以上来源于:《21世纪大英汉词典》 英汉大☞MarkovianMarkov process马可夫随机过程Markov process马可夫过程Markov process马可夫进程Markov processn.(名詞 noun)馬爾可夫過程馬爾可夫鏈(= Markov chain)Markov processMarkov chain馬爾可夫鏈document.write('functi |
随便看 |
|
英汉汉英词典包含3953260条英汉及汉英翻译词条,涵盖了常用英语单词及词组短语的翻译及用法,是英语学习的必备工具。