2024년 8월 18일 일요일

리만 매니폴드의 개념

 

## 리만매니폴드의 정의

- 미분가능한 매니폴드를 리만 매니폴드라고 정의한다.

## 리만공간과 유클리디안 공간

- 유클리디안 공간에서의 이차미분(곡률) = 리만 공간에서의 일차미분(Natural Gradient)

- 유클리디안 공간에서 보면 곡률을 따르는 일직선은 곡선으로 보인다.

- 유클리디안 공간에서의 이차미분 = 리만공간에서의 일차미분

-> Natural Gradient에서는 Policy가 리만 manifold를 따른다는 가정을 하고

이에 근거하여 Gradient를 계산하며 이 결과를 Natural Gradient라고 한다.

clip_image007_thumb[1]

 

## 결론

- PPO가 나온 이유를 알기 위해서는 NPG를 알아야 한다.

-> NPG(2001) -> TRPO(2015) -> PPR(2017)

- Natural Gradient에서는 Policy가 리만 매니폴드를 따른다는 가정을 한다.

- Riemannian Manifold(리만매니폴드)란?

-> 매니폴드중에서도 매니폴드가 각지지 않고 부드럽게 생긴, 미분 가능한 매니폴드이다.

- Natural Policy Gradient는 리만공간(굽은공간)에서의 일차미분(일차근사)을 이용하여 Gradient를 계산하고 이를 이용하여 Policy를 업데이트한다.

------------------------------------------------

I. Optimization

## 최적화 문제

- 방법 : 대상 목적함수의 1차 미분을 이용하여 0이 되는 지점을 찾아 최적값 여부를 확인하는 방법

- 문제 : 초기와는 달리 최적점에 가까워질수록 step이 줄어들어 여러 iter을 진행하더라도

최적값을 찾지 못하는 문제점이 발생한다.

x_(k+1)=x_(k) - λf'(x_(k))

- 해결안 : 1차 미분 이외에도 2차 미분결과를 이용하여 iter을 진행할 경우 보다 빨리 최적값을 찾아낼 수 있다.

아래 식은 테일러 급수와 관련이 있음(원래 함수를 테일러급수로 추정하고

x_(k+1)= x_(k) - f'(x_(k)) / f''(x_(k))

## Natural Gradient와 Gradient의 차이

- Gradient Method는 파라미터의 값에 큰 변화를 만들어 낼 수 없음

- Natural Gradient는 Better Action보다는 Greedy Optimal Action을 선택하는 방향으로 나아감

 

II. Policy Gradient

## 폴리시 그레디언트란?

- 미래 보상에 그레디언트를 취해 최적의 폴리시를 찾는 방법임

- 유클리드 공간을 전제로 이루어졌던 기존의 방법(SGD) : Non-covariant

- 리만 공간을 전제로 이루어졌던(NPG) : Covariant

## 폴리시 최적화

- 업데이트 방향(steepest descent direction)

-> sutton의 PG와 별차이 없음

- 업데이트 크기(distance)

-> 크기가 중요하다.

## 방향과 크기

- 유클리드 공간에서는 파라미터 θ간의 거리는 |dθ|^2 = dθ dθ으로 표현할 수 있다.

- 파라미터 θ가 새로 업데이트 됨에 따라 매니폴드 모양이 계속 변경될 수 있다.

-> 이러한 경우 θ1과 θ2간의 거리가 일정하지 않으므로 이에 대한 general한 거리계산법이 필요하다.

-> KLD를 이용하여 두 분포간 차이를 최소화하는 방향으로 constraint를 걸어 연산하는 방향으로 전개한다.

## 거리계산식

|dθ|^2 = ∑ij Gij (θ) dθi dθj = dθT G(θ) dθ

G(θ)가 identity matrix면 이 식은 유클리드 공간에서 거리를 계산하는 것과 같다.

- Natural Gradient : 리만공간(리만 매니폴드)을 기반으로 하여 거리를 측정하는 방법

-> 매니폴드 모양이 계속 변경되면 같아야 할 θ간의 거리가 달라지게됨(variant)

-> 동일한 대상간의 거리가 매번 바뀌면 폴리시 최적화에 어려움을 겪을 수 있어 이를 invariant하게 만드는 것이 필요함

-> 이와 같은 방법은 FIM(Fisher Information Matrix)을 G(θ)로 쓰는 것이다.

-> FIM : 리만공간에 적용가능한 Positive Definite Matrix중 하나이다.

좌표축의 선택과 상관없이 두 점간의 거리를 동일하게 만드는 방법이다.

- xAxT : x로 무엇을 넣어도 행렬연산의 결과를 양의 값으로 만드는 것을 positive definite matrix라고 한다.

- Natural Gradient : 리만공간(리만 매니폴드)을 기반으로 거리를 재는 방법

-> 문제는 매니폴드의 모양이 바뀌면 거리가 달라지므로 이를 방지(invariant)할 수 있는 방법이 필요함

-> 방지할 수 있는 방법이 FIM(Fisher Information Matrix)임

## Natural Gradient란?

1) 리만 공간을 기반으로 하여 거리를 재는 방법을 Natural Gradient라고 한다.

2) 이 경우 매니폴드의 모양이 계속 바뀔때마다 같아야 할 θ간의 거리가 variant하게 되면

policy optimization이 intractable하기 때문에

NG를 invariant하게 만드는 것이 매우 중요하다.

-> NG를 invariant하게 만드는 방법이 FIM이다.

3) 어떤 좌표를 선택하더라도 두 포인트간의 거리를 동일하게 만드는 방법

## FIM이란?

리만 공간에 적용가능한 Positive Definite Matrix중의 하나이다.

FIM을 Natural Gradient에서 G(θ)으로 사용한다.

## NPG란?

Policy Gradient + Natural Gradient를 의미함

clip_image008_thumb[1]

FIM이라는 Positive-Definite Matrix를 써서 리만공간을 고려한 방향 및 크기로

목표함수를 업데이트 함

## NPG에서 PPO까지 진행이력

NPG(2001) -> TRPO(2015) -> PPO(2017)

## 매니폴드의 이해

1. policy는 몇 차 함수일까?

- parameter(sigma)로 이루어진 함수라고 정의함

## NGM

- 어떤 파라미터 공간에서의 가장 가파른 방향을 강조함

- 파라미터 공간은 리만 매니폴드로 정의할 수 있다.

- 리만 매니폴드는 각지지 않고 미분가능하게 부드러운 곡률을 가진 면이다.

## NG

- NG에서는 폴리시가 리만매니폴드를 따른다는 가정을 한다.

- 리만 매니폴드? 매니폴드 중에서도 부드럽게 생긴, 미분 가능한 매니폴드라고 이해하고 넘어가자.

## 매니폴드의 이해

- Natural Policy Gradient는 리만공간에서의 일차미분을 이용한 gradient로 policy를 업데이트하는 것이다.

- 쉽게말해서 유클리디안 공간에서의 이차미분 = 리만 공간에서의 일차미분이라고 생각할 수 있다.

## 참고문헌

1. https://www.slideshare.net/SooyoungMoon3/natural-policy-gradient

2. https://talkingaboutme.tistory.com/entry/RL-Policy-Gradient-Algorithms

3. https://medium.com/@jonathan_hui/rl-natural-policy-gradient-actor-critic-using-kronecker-factored-trust-region-acktr-58f3798a4a93

댓글 없음:

댓글 쓰기

태그

2025년 가열재생방식 가치기반 가치기반학습 가치이터레이션 강화학습 강화학습기초이론 강화학습방법 강화학습종류 개나리 개념 개발업무 최적화 건강 건식전극코팅 검사 검사기 검사장비 검사장비 양산라인 투입 절차 검색엔진최적화 검색키워드 검출율 경쟁력 경험재플레이 고체전해질적용 공부방법 공정간 에너지 흐름 공정내 에너지 절감 기술 과검율 관절 구글검색키워드 군마트 극초박형 셀제조 기계학습 기내반입 기대값 기초용어 나스닥 남녀사랑 냉각시스템 네이버 네이버 검색 키워드 분석 단백질 답변거부능력 더 원씽 덕담 동적계획법 듀얼브레인 드로스 딥시크 레이저노칭 문제점 로봇산업 롤투롤 생산공정 리액트히터 리튬산업 마르코프과정 마르코프의사결정 막걸리 말을 잘하는 방법 멀티 스텝 모델링 메모리 메인내용 메주콩 메주콩파종 멧돌호박 모델기반학습 모델종류 모델프리학습 모듈 모바일 몬테카를로 방법 몬테카를로방법 물류 및 공급망 최적화 물성의 성질 미국 오하이오 미국주가 미국주식 미래기술전망 미래전망 미세플라스틱 미중경쟁 밀도범함수이론 반도체 가격 상승 반사율 방수 배터리 배터리 주요불량 배터리공정 배터리기술 배터리불량 배터리소재 배터리신뢰성 배터리와인공지능 배터리정책 배터리제조 배터리제조신기술 백주 뱀때 버거체인 벨만방정식 병역명문가 보조배터리 보조배터리 기내반입 분석솔루션 불량원인분석 비례적분미분제어 비전 비지도학습 사랑 삼성반도체 새피해 새해인사 새해인사말 생각정리 생각정리기술 생마늘 생산계획 생수 생수페트병 설계최적화 설날인사말 설비고장예측 성심당 성심당온라인 구매 성심당추천빵 셀 스웰링 셀스웰링 셀투팩 소매업 소재개발 소프트뱅크 쇠뜨기 수명예측 수요예측 스마트팩토리 스웰링불량 시간차학습 시계열분석 시뮬레이션 신뢰성 액터-크리틱 양배추 양자컴퓨터 어텐션 어텐션메커니즘 에너지 절감 에너지 절감방법 에너지사용최적화 에너지절감 에너지절감방안 에어드라이어 에피소드 기반 학습 엘지전자 영어 영어 리스닝 예제 오버행불량 오버행불량원인 오프폴리시 온누리상품권 온폴리시 용접 워런버핏 원달러 변화패턴 원달러 환율전망 원엔환율 원인 원자간 상호작용 학습 및 예측 웬디스버거 을사 인간피드백을 통한 강화학습 인공지능 인공지능경쟁 인생 일본금리 일본환율 자발적DR 자이가르닉 효과 장마 재고관리 재생시스템 재활용소재활용 저전압 저축 전자분포 전자의 움직임 전자의분포 전자의움직임 전통시장통통 정식방법 정책기반 정책기반 이터레이션 정책기반학습 정책이터레이션 제사상 제습공조설비 제습효율 제조업 제조에너지절감 제품개발 젠슨황 조합최적화 주식 중국공급과잉 중요샘플링 지도학습 지도학습미세조정 지붕방수 지수평활법 창신메모리테크놀로지 책줄거리 청주 최신배터리기술 최신이슈 최적제어 추정 추천빵 코스모스 콜드 스타트 키워드 분석 탁주 통계적 방법 투자 투자가 투자철학 트럼프2.0 트루시니스 파종 패키징공정 페트병 페트병두께 푸른뱀때 품질관리 피엑스 필요기술 필요지식 하이닉스 학습항목 한국반도체 행복 행위적인공지능 현대차 화합물 물성 확률 효능 효율적인 업무방법 휴머노이드로봇 흡착식 에너 드라이어 흡착식에어드라이어 흡착제 힘의교환 Actor Actor-Critic 강화학습 Actor-Critic학습 Agentic AI AI AI기반품질관리 Air Dryer ARIMA AS재고관리 Attention Attention Algorithm Battery Manufacturing Battery Manufaturing Battery Material Books Books for Beginners to Learn About LLM CATL Cell to Pack confusion matrix Critic CTC CTP CXMT DDR5 Deep Learning Deep Seek DeepSeek Demand Response DFT DIO Double DQN DP DPO DQN Dross DSO Dueling DQN dumplings Dynamic Programming ESS ESS솔루션 EV FFC FFC체결여부 검사 garlic genesis Gongi Graph Enhanced RAG Health Horsetail Hot Areas how to speak well Human Feedback importance sampling Kitchen hoods Korean dumplings Korean Rice Cake Soup Korean Traditional Game Large Language Models LLM LSTM Machine Learning Interatomic Potential Mandy Material Development MDP MLIP MMFF94 Multi-step Modeling New Battery Materials NMP Recovery Nuts PCU Physical AI PID제어 ppm PPO Pre Cooling Unit pre training Precooling Unit Prophet Protein Q-Learning Quality Inspection Data Quality Management RAG Raw Garlic RCU React Heater REINFORCE REINFORCE학습 Reinforcement Learning Reliability Return cooling Unit RL RLHF RORL RUL방법 SARIMA SARSA SCM SCM 핵심 재무 지표 SEO SFT SHAP SHAP로직 small kitchen hoods squd Squid Game Stacking TD학습 Temporal Difference Tener Stack Time Difference Learning truthiness Ttakji Tteokguk VAR ventilations for small spaces Vision Water Z-Stacking