 
 
 
 
Markov process (engl.)
benutzt für: Markoff-Kette, Markoffscher Prozeß, Markoffscher Prozess, Markov-Kette, Markovsche Kette, Markovscher Prozeß, Markov chain
Oberbegriffe
Verwandte Begriffe
Thesaurus Systematik
Links zu anderen Thesauri und Vokabularen
| = | Markov-Prozess (aus SWD) | 
| > | Markov-Ketten-Monte-Carlo-Verfahren (aus SWD) | 
| > | Markov-Entscheidungsprozess mit stetiger Zeit (aus SWD) | 
| > | Markov-Kette (aus SWD) | 
| > | Semi-Markov-Prozess (aus SWD) | 
| > | Markov-Entscheidungsprozess (aus SWD) | 
Persistenter Identifier (für Bookmarks und zum Verlinken)
Standard-Thesaurus Wirtschaft 
(v 8.10, 
2012-03-21) 
 ▪  
Anregungen und Kommentare an das 
  Thesaurus Team
ZBW - Leibniz-Informationszentrum Wirtschaft - 
Impressum