Inhaltsverzeichnis:
Definition - Was bedeutet Markov-Kette?
Eine Markov-Kette ist ein mathematischer Prozess, der innerhalb einer endlichen Anzahl möglicher Zustände von einem Zustand in einen anderen übergeht. Es ist eine Sammlung verschiedener Zustände und Wahrscheinlichkeiten einer Variablen, deren zukünftiger Zustand oder Zustand wesentlich von ihrem unmittelbaren vorherigen Zustand abhängt.
Eine Markov-Kette wird auch als zeitdiskrete Markov-Kette (DTMC) oder Markov-Prozess bezeichnet.
Techopedia erklärt Markov Chain
Markov-Ketten werden in erster Linie verwendet, um den zukünftigen Zustand einer Variablen oder eines Objekts auf der Grundlage ihres früheren Zustands vorherzusagen. Es wendet probabilistische Ansätze zur Vorhersage des nächsten Zustands an. Markovketten werden mit gerichteten Graphen dargestellt, die den aktuellen und den vergangenen Zustand sowie die Wahrscheinlichkeit des Übergangs von einem Zustand in einen anderen definieren.
Markov-Ketten haben mehrere Implementierungen in Computer- und Internet-Technologien. Beispielsweise verwendet die von der Google-Suche verwendete PageRank (R) -Formel eine Markov-Kette, um den PageRank einer bestimmten Webseite zu berechnen. Es wird auch verwendet, um das Benutzerverhalten auf einer Website basierend auf den vorherigen Vorlieben oder Interaktionen der Benutzer vorherzusagen.