 
Markov chain (engl.)
benutzt für: Markovscher Prozeß, Markovscher Prozess, Markovsche Kette, Markoff-Kette, Markov process
außerdem benutzt für: Steady-state distribution of Markov chains, Markov chain approximation, Hidden Markov model
Oberbegriffe
Verwandte Begriffe
Thesaurus Systematik
Links zu anderen Thesauri und Vokabularen
| = | Markov-Kette (aus GND) | 
| > | Markov-Entscheidungsprozess (aus GND) | 
| > | Markov-Ketten-Monte-Carlo-Verfahren (aus GND) | 
| > | Markov-Entscheidungsprozess mit stetiger Zeit (aus GND) | 
| > | Semi-Markov-Prozess (aus GND) | 
| ~ | Markov-Prozess (aus GND) | 
| = | Markow-Kette   
(aus 
Wikidata)   | 
| > | Hidden Markov Model   
(aus 
Wikidata)   | 
| = | Markov-Modell (aus DBpedia) | 
Persistenter Identifier (für Bookmarks und zum Verlinken)
Standard-Thesaurus Wirtschaft 
(v 9.18, 
2024-11-06) 
 ▪  
Anregungen und Kommentare an das 
  
  Thesaurus Team
 ▪ 
Mailinglisten:
stw-announce, stw-user
ZBW - Leibniz-Informationszentrum Wirtschaft - 
Impressum - 
Datenschutz