释义 |
Markov process 【统计学】 马尔可夫过程,无后效过程 [亦作 Markoff process] 以上来源于:《21世纪大英汉词典》 英汉大☞MarkovianMarkov process马可夫随机过程Markov process马可夫过程Markov process马可夫进程Markov processn.(名詞 noun)馬爾可夫過程馬爾可夫鏈(= Markov chain)Markov processMarkov chain馬爾可夫鏈document.write('functi |