请输入您要查询的英文单词或汉字:

 

单词 markov process
释义 Markov process 【统计学】 马尔可夫过程,无后效过程 [亦作 Markoff process] 以上来源于:《21世纪大英汉词典》 英汉大☞MarkovianMarkov process马可夫随机过程Markov process马可夫过程Markov process马可夫进程Markov processn.(名詞 noun)馬爾可夫過程馬爾可夫鏈(= Markov chain)Markov processMarkov chain馬爾可夫鏈document.write('functi
随便看

 

英汉汉英词典包含3953260条英汉及汉英翻译词条,涵盖了常用英语单词及词组短语的翻译及用法,是英语学习的必备工具。

 

Copyright © 2000-2023 1mrm.com All Rights Reserved
京ICP备2021023879号 更新时间:2024/11/10 18:24:16