markov chainの語源
この単語の語源は掲載準備中です。
掲載についてはEnglishBattle公式X で更新情報を発信しています。
markov chainの主な意味と例文
- 1名詞
意味 - マルコフ連鎖
- 確率過程
- マルコフ過程
a mathematical system that undergoes transitions from one state to another according to certain probabilistic rules
例文 Markov chains are used in various fields, including game theory.
マルコフ連鎖はゲーム理論を含む様々な分野で使用されています。
The weather forecast model uses a Markov chain to predict future states.
天気予報モデルは将来の状態を予測するためにマルコフ連鎖を使用します。
markov chainのWordNet
- 1名詞
意味 マルコフ連鎖
a Markov process for which the parameter is discrete time values
パラメーターが離散的な時間値であるマルコフ過程
和訳例 - マルコフ連鎖
- マルコフ鎖
- マルコフ過程
同義語 - markov chain
- markoff chain
上位語 a simple stochastic process in which the distribution of future states depends only on the present state and not on how it arrived in the present state
未来の状態の分布が現在の状態のみに依存し、どのようにして現在の状態に至ったかは関係ない単純な確率過程