Hai ragione: uno stato di assorbimento deve essere ricorrente. Per essere precisi con le definizioni: dato uno spazio degli stati X e una catena di Markov con matrice di transizione P definita su X. Uno stato x∈X è assorbente se Pxx=1; necessariamente questo implica che Pxy=0, y≠x.
Gli stati assorbenti sono transitori?
assorbente è chiamato transitorio. Quindi, in una catena di Markov assorbente, ci sono stati assorbenti o stati transitori.
Cos'è lo stato ricorrente?
In generale, si dice che uno stato è ricorrente se, ogni volta che lasciamo quello stato, torneremo a quello stato in futuro con probabilità uno. Se invece la probabilità di ritorno è minore di uno, lo stato è detto transitorio.
Come fai a dimostrare che uno stato è ricorrente?
Diciamo che uno stato i è ricorrente se Pi(Xn=i per infiniti n)=1. Pi(Xn=i per infiniti n)=0. Quindi uno stato ricorrente è uno stato a cui continui a tornare e uno stato transitorio è uno stato che alla fine lasci per sempre.
Cosa sono gli stati assorbenti?
Uno stato assorbente è uno stato che, una volta entrato, non può essere lasciato. Come le catene di Markov generali, possono esserci catene di Markov che assorbono il tempo continuo con uno spazio degli stati infinito.