/
35:40, hierarchical volume sampling 이라는 방식은, ray 를 n 등분해서 sampling 과 관련이 있다. 앞의 방법 (참고1) 을 통해 n 개의 sample 을 뽑고, Chat_coarse 를 학습시킨다. 이를 통해 weighted sum 의 weight 를 얻어낼 수 있다. Chat_coarse 로 학습이 되었기 때문에 n 개의 sample 에 대한 weight 로 distribution 을 구할 수 있다. 이때, 이 distribution 중 확률값이 높은 곳은 ‘더 중요한 곳’ 이기 때문에, n2 번 sampling 을 또 한 뒤, n+n2 개의 sample 로 Chat_fine 을 학습시킨다.
Search
🧠

35:40, hierarchical volume sampling 이라는 방식은, ray 를 n 등분해서 sampling 과 관련이 있다. 앞의 방법 (참고1) 을 통해 n 개의 sample 을 뽑고, Chat_coarse 를 학습시킨다. 이를 통해 weighted sum 의 weight 를 얻어낼 수 있다. Chat_coarse 로 학습이 되었기 때문에 n 개의 sample 에 대한 weight 로 distribution 을 구할 수 있다. 이때, 이 distribution 중 확률값이 높은 곳은 ‘더 중요한 곳’ 이기 때문에, n2 번 sampling 을 또 한 뒤, n+n2 개의 sample 로 Chat_fine 을 학습시킨다.

출처
수집시간
2021/12/05 16:43
연결완료
인라인 메모
Weight 가 크다는 것은 해당 부분의 rgb 값이 더 많이 적용되어야 한다는 것이니까 더 많이 뽑아서 관찰하자. 이 설명에서는 두 번째 뽑는 sample 이 등분을 다시한다는건지 등분은 유지하고 sampling 을 더한다는 건지 나와있지 않다.
참고