5 отношения: Марковска верига, Марковски вериги, Марковски процес в непрекъснато време, Марковски процеси в непрекъснато време, Марковско свойство.
Марковска верига
Марковска верига в теорията на вероятностите, е Марковски процес, който приема стойности от дискретно множество, наречено пространство на състоянията, като стойността му се изменя във фиксирани моменти от времето.
New!!: Марковски процес и Марковска верига · Виж повече »
Марковски вериги
#виж Марковска верига.
New!!: Марковски процес и Марковски вериги · Виж повече »
Марковски процес в непрекъснато време
Марковски процес в непрекъснато време в теорията на вероятностите, е Марковски процес, който приема стойности от дискретно множество, наречено пространство на състоянията, като стойността му се изменя в произволни моменти от времето.
New!!: Марковски процес и Марковски процес в непрекъснато време · Виж повече »
Марковски процеси в непрекъснато време
#виж Марковски процес в непрекъснато време.
New!!: Марковски процес и Марковски процеси в непрекъснато време · Виж повече »
Марковско свойство
В теория на вероятностите един случаен процес притежава Марковско свойство, ако условното разпределение на вероятността на бъдещите състояния на процеса при зададени текущо и минали състояния зависи само от текущото състояние и не зависи от миналите.