markoff chainの語源
この単語の語源は掲載準備中です。
掲載についてはEnglishBattle公式X で更新情報を発信しています。
markoff chainの主な意味と例文
- 1名詞
意味 - マルコフ連鎖
- マルコフ過程
- 確率過程
a mathematical system that undergoes transitions from one state to another based on certain probabilistic rules
例文 The Markoff chain can predict the sequence of states.
マルコフ連鎖は状態のシーケンスを予測できる。
Markoff chains are useful in various fields including economics.
マルコフ連鎖は経済学を含む様々な分野で有用である。
markoff chainのWordNet
- 1名詞
意味 マルコフ連鎖
a Markov process for which the parameter is discrete time values
パラメーターが離散的な時間値であるマルコフ過程
和訳例 - マルコフ連鎖
- マルコフ鎖
- マルコフ過程
同義語 - markoff chain
- markov chain
上位語 a simple stochastic process in which the distribution of future states depends only on the present state and not on how it arrived in the present state
未来の状態の分布が現在の状態のみに依存し、どのようにして現在の状態に至ったかは関係ない単純な確率過程