markov processの語源
この単語の語源は掲載準備中です。
掲載についてはEnglishBattle公式X で更新情報を発信しています。
markov processの主な意味と例文
- 1名詞
意味 - マルコフ過程
- マルコフ連鎖
- 確率過程
a stochastic process where the future state depends only on the current state, not on the sequence of events that preceded it
例文 In a Markov process, the next state is independent of past states.
マルコフ過程では、次の状態は過去の状態に依存しない。
Weather prediction models often use Markov processes.
天気予報モデルはしばしばマルコフ過程を使用する。
markov processのWordNet
- 1名詞
意味 マルコフ過程
a simple stochastic process in which the distribution of future states depends only on the present state and not on how it arrived in the present state
未来の状態の分布が現在の状態のみに依存し、どのようにして現在の状態に至ったかは関係ない単純な確率過程
和訳例 - マルコフ過程
- マルコフ連鎖
- マルコフモデル
同義語 - markov process
- markoff process
上位語 a statistical process involving a number of random variables depending on a variable parameter (which is usually time)
変数パラメータ(通常は時間)に依存する複数の確率変数を含む統計的プロセス
下位語 a Markov process for which the parameter is discrete time values
パラメーターが離散的な時間値であるマルコフ過程