본문 바로가기
728x90
반응형

전체 글266

[Markov Chains] 장기 확률 (limiting probabilities, period, ergodic, stationary probability) Markov Chain and its Stationary Distributiontwo-staet Markov chain의 전이확률이 다음과 같다고 하자.\[P = \begin{bmatrix} 0.7 & 0.3 \\ 0.4 & 0.6 \end{bmatrix} \]이제 \( P^4 \)와 \( P^8 \)을 계산해보면 다음과 같다.\[ P^4 = \begin{bmatrix} 0.5749 & 0.4251 \\ 0.5668 & 0.4332 \end{bmatrix}, \ P^8 = \begin{bmatrix} 0.572 & 0.428 \\ 0.570 & 0.430 \end{bmatrix} \]이는 \( P^8 \)이 \( P^4 \)와 거의 동일하다는(identical) 것을 의미한다.또한, \( P^8 \)의 .. 2025. 1. 8.
[Markov Chains] 여러가지 상태 분류 (accessible, communicate, irreducible, recurrent, transient) Classification of StatesAccessible, Communicate, Irreducible어떤 음이 아닌 수 \( n \ge \)에 대하여 \( P_{ij}^n > 0\)이면 상태 \( j \)는 \( i \)로부터 accessible(도달 가능)하다고 한다.만약 \( j \)가 \( i \)로부터 not accessible하다면, \begin{align} P(\text{ever enter }j \mid \text{start in }i) &= P\bigg( \bigcup_{n=0}^{\infty}\{X_n = j \} \mid X_0 = i \bigg) \\ &\le \sum_{n=0}^{\infty}P(X_n = j \mid X_0 = i) = \sum_{n=0}^{\infty}P_{.. 2025. 1. 6.
[Markov Chains] Chapman-Kolmogorov Equations (체프만-콜모고로프 방정식) Chapman-Kolmogorov Equation: Transition Rules for Stochastic Processes앞서 one-step transition probability \( P_{ij} \)을 정의했다.이제 일반화하여 \( n \)-step transition probability(n단계 전이확률)를 \( P_{ij}^n \)로 표기하고 정의할 것이다.state \( i \)에서 \( n \)번의 추가 전이를 거쳐 state \( j  \)에 있을 확률을 \( P_{ij}^n \)로 정의한다. 즉,\[ P_{ij}^n = P(X_{n+k} = j \mid X_k = i), \quad n \ge 0,\ i,j \ge 0 \]당연히 \( n=1 \)인 경우에는 \( P_{ij}^1 = P.. 2025. 1. 4.
[Markov Chains] Basic Concepts (마르코프 체인 개념) Markov ChainsIntroduction어떤 process가 각 시간마다 값을 가진다고 하자. \( X_n \)을 시간 \( n \)에서의 값이라고 할 때, 연속적인 값 \( X_0, X_1, X_2, \dots \)에 대한 확률 모델을 만들어보자.아주 간단한 모델로, \( X_n \)이 독립적인 확률변수라고 가정할 수 있지만, 이런 가정은 확실히 부적절하다. 예를 들어, \( X_n \)이 어떤 증권(구글 주식 등)의 \( n \) 추가 거래일 종료시점의 가격이라 하자.그런데 \( X_{n+1} \)가 \( X_0, X_1, \dots, X_n \)과 독립이라고 가정하는것은 타당하지 않을 것이다.만약 주식의 종가가 이전 종가에만 의존한다고 가정하는 것은 합리적일 수 있다.즉, \( X_{n+1} .. 2024. 12. 23.
[Stochastic Process] 확률과정이란? Stochastic Process확률과정은 \( \{ X(t), t \in T \} \)는 시간에 따라 변화하는 확률변수들의 집합이다.여기서는 \( X \)가 아니라 \( X(t) \)가 확률변수가 된다.\( t \)는 지표(index)라고 하고 일반적으로 시각이나 시간(time)으로 해석된다.\( X(t) \)는 \( t \)에서의 확률과정의 상태(state)라고 한다.예를 들면, \( X(t) \)는 다음과 같은 state를 나타낼 수 있다.\( t \) 시점에 슈퍼마켓에 들어온 총 고객 수\( t \) 시점까지 슈퍼마켓에서 기록된 총 매출액\( T \)는 집합으로, 지표집합(index set)이라고 한다. \( T \)가 가산집합(countable set)이면, 확률과정은 이산시간과정(discret.. 2024. 12. 22.
[CS224W] GNN for RecSys (4) - LightGCN LightGCN: Simplifying and Powering Graph Convolution Network for RecommendationMotivationshallow embeddings은 그 자체로 꽤 좋은 표현력(expressive)를 가진다.노드 개수를 $N$, 임베딩 차원을 $D$라 하면- shallow embedding: $O(ND)$- GNN: O(D^2)GNN의 파라미터는 충분하지 않을 수 있다그러면 GNN으로 NGCF의 파라미터를 줄일 수 있을까? YES!게다가 단순화(simplification)은 추천 성능을 향상시킬 수 있다. LightGCN의 idea는 크게 3가지이다.- 이분그래프에서의 인접행렬(adjacency matrix)- GCN의 행렬 곱셈(matrix formulati.. 2024. 11. 9.
728x90
반응형