일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- Discrete Wavelet Transform
- binary search
- Proof Selection Sort
- Selection Sort
- GPT-3
- chatGPT
- ChatGPT 설명
- 이진탐색
- 선택정렬
- BERT
- 선택정렬 증명
- haar matrix
- Binary Search Proof
- 이진탐색 증명
- Today
- Total
Just Do IT
Bellman Expectation Equation (벨만 기대 방정식) 본문
1. State Value Function
State Value Function $ V_\pi(s) $는 state s에서 부터 끝까지 갔을 때의 expected return을 말합니다.
$$ v_\pi(s) = E_\pi[G_t|S_t=s] $$
2. Action Value Function
Action Value Function $ q_\pi(s,a) $는 state s에서 action a를 선택하고 끝까지 갔을 때의 expected return을 말합니다.
$$ q_\pi(s,a) = E_\pi[G_t|S_t=s,A_t=a] $$
3. Return
여기서의 return은 time t에서 받을 수 있는 total discounted reward를 말합니다.
$$ G_t = R_{t+1} + \gamma R_{t+2}+... = \sum_{k=0}^{\infty}\gamma^kR_{t+k+1} $$
4. Bellman Expectation Equation의 변형
0단계 : $ v_\pi(s_t) = E_\pi[r_{t+1} + \gamma v_\pi (s_{t+1})] $
$ q_\pi(s_t,a_t) = E_\pi[r_{t+1} + \gamma q_\pi (s_{t+1},a_{t+1})] $
1단계 : $ v_\pi(s) = \sum_{a \in A}^{}\pi(a|s)q_\pi(s,a) $
$ v_\pi(s) $는 state s에서 policy에 따라 action a를 선택하고 그 action을 선택했을 때의 action value function의 합을 말한다.
$ q_\pi (s,a) = r_s^a + \gamma \sum_{s'\in S}^{}P_{ss'}^av_\pi(s') $
$ q_\pi (s,a) $ 는 현재 action으로 인한 reward $ r_s^a $에 a로 이동할 수 있는 state의 state transition probability와 이동한 state의 state value function을 곱해서 모두 더한 값을 말한다.
1단계는 2단계를 위한 발판이며 결과적으로 2단계 결과가 사용된다.
2단계 : $ v_\pi(s) = \sum_{a \in A}^{}\pi(a|s)(r_s^a + \gamma \sum_{s' \in S}^{}P_{ss'}^av_\pi(s')) $
1단계의 $ v_\pi(s) $ 의 식 내부의 $ q_\pi(s,a) $를 $ r_s^a + \gamma \sum_{s'\in S}^{}P_{ss'}^av_\pi(s') $로 바꾼 식이다.
$ q_\pi(s,a) = r_s^a + \gamma \sum_{s' \in S}^{}P_{ss'}^a \sum_{a' \in A}^{}\pi(a'|s')q_\pi(s',a') $
$ q_pi(s,a) $ 또한 1단계의 식을 위와 같이 바꿀 수 있다.
'AI Study > 강화학습' 카테고리의 다른 글
Markov Decision Processes(MDP)란? (0) | 2023.09.26 |
---|