
Conférence internationale sur la météorologie tropicale et les sciences
atmosphériques
IOP Conf. Series : Science de la terre et de l'environnement 303 (2019)
012026
doi:10.1088/1755-1315/303/1/012026
processus stochastiques [4]. Le modèle de chaîne de Markov est utilisé pour aider à estimer les
changements qui peuvent se produire dans le futur, où les changements sont représentés dans des
variables dynamiques à certains moments. La chaîne de Markov a été inventée par Andrey Andreyev
Markov (1856-1922) [5]. On dit d'un processus stochastique qu'il comprend la chaîne de Markov s'il
remplit les propriétés de Markov (propriété markovienne). Les propriétés de Markov stipulent que la
probabilité d'un événement futur, avec des événements passés et des événements présents connus, ne
dépend pas des événements passés et ne dépend que des événements présents [4, 6].
La chaîne de Markov est généralement classée en deux catégories, à savoir la chaîne de Markov à
indice de paramètre discret et la chaîne de Markov à indice de paramètre continu. On dit que la chaîne
de Markov est un indice de paramètre discret si l'état de changement se produit avec un intervalle de
temps discret fixe. En revanche, la chaîne de Markov est dite à paramètre continu si l'état de
changement se produit avec un intervalle de temps continu [7]. Les données relatives aux
précipitations sont une série de données temporelles qui indiquent le mouvement de l'état dans un
intervalle de temps discret fixe. La prévision des précipitations dans le futur est nécessaire pour
anticiper la prévention si une forte intensité de pluie se produit pendant une longue période. En outre,
elle indique que nous devons prendre en compte les autres phénomènes qui peuvent contribuer de
manière significative à l'augmentation de l'intensité des précipitations [8]. En outre, dans cet article,
une analyse d'une grande base de données de précipitations provenant de 27 districts/villes a été
réalisée en utilisant la distribution stationnaire de la chaîne de Markov, puis utilisée pour prédire les
précipitations dans l'ouest de Java en se basant sur une approche d'exploration de données utilisant la
méthode KDD.
2. Méthode
2.1. Processus stochastiques
Un processus stochastique {(), ∈ } est une collection de variables aléatoires. Autrement dit, pour
chaque dans l'ensemble d'indices , () est une variable aléatoire. Si le paramètre temporel est un
ensemble dénombrable = {0,1,2, ... }, le processus
{(), = 0,1,2, ... } est appelé un processus stochastique à temps discret, et si est un continuum, le
processus
{(), ≥ 0} est appelé un processus stochastique continu. Pour un processus stochastique {(), ∈
}, un ensemble de toutes les valeurs de () est appelé un espace d'états [9, 10].
2.2. Concept de base des chaînes de Markov
Un mathématicien russe, Markov, a introduit le concept de processus dans lequel une séquence ou une
chaîne d'états discrets dans le temps pour lesquels la probabilité de transition d'un état à un état donné
dans l'étape suivante de la chaîne dépend de la condition pendant l'étape précédente [11]. Une chaîne
de Markov du premier ordre est un processus stochastique ayant la propriété que la probabilité des
événements futurs ne dépend que de l'événement présent, en d'autres termes :
(+1 = |1 = 1, 2 = 2, ... , = ) = (+1 = | = ) (1)
Pour tous les états 1 , 2 , ... , et tous ≥ 0, un tel processus stochastique est appelé chaîne de
Markov [7, 12].
2.3. Temps discret de la chaîne de Markov
Supposons que {(), = 0,1,2, ... } est un processus stochastique avec un indice de paramètre discret
et un espace d'état = 0,1,2, ... sauf indication contraire. Si
{\i1D44B↩( + 1) = ||(0) = 0, (1) = 1, ... , ( - 1)
= -1, () = } = {( + 1)} = |() = 1} = (2)
pour tous les 0, 1, ... , -1, , et , alors le processus est appelé une chaîne de Markov à temps discret,
et est appelé une probabilité de transition. La valeur est appelée probabilité de transition