Chuyển bộ gõ


Từ điển WordNet v3.1 - WordNet Dictionary
Markov chain


noun
a Markov process for which the parameter is discrete time values
Syn:
Markoff chain
Hypernyms:
Markov process, Markoff process

Học từ vựng | Vndic trên web của bạn
© Copyright 2006-2025 VNDIC.NET & VDICT.CO all rights reserved.