Replies: 9 comments
-
3/13목 1시간 강의자료 25쪽까지 공부
3/15토 1시간 강의자료 26-끝까지 공부
-> 동영상은 안봐도 될 듯 |
Beta Was this translation helpful? Give feedback.
-
Pruning의 핵심은 low importance components in neural networks을 어떻게 찾고, 제거할 것인가? 입니다. 따라서, 강의의 내용은 "무엇이 importance를 결정(정의)하는가?", 그리고 "어떻게 pruning(제거)할 것인가?" 이렇게 두 가지로 나눠볼 수 있습니다. 그 중에서도 "어떻게 pruning할 것인가?"의 관점으로 본다면, "low-weight value를 직접적으로 제거하는 방법" & "Pruning했을 때 발생하는 변화를 활용하는 방법"으로 나눠볼 수 있습니다. 이를 다시 정리해보면 아래와 같습니다. :
두 접근법은 다른 분야에서도 그렇듯이, |
Beta Was this translation helpful? Give feedback.
-
강의 요약
강의 소감 및 개인적 키 포인트들
|
Beta Was this translation helpful? Give feedback.
-
노션으로 정리했습니다.
|
Beta Was this translation helpful? Give feedback.
-
|
Beta Was this translation helpful? Give feedback.
-
저도 노션으로 정리했습니다. 노션 내용을 다시 한 번 정리해서 discussion에 올리려고 했으나 시간이 없어서 노션 링크로 업로드 합니다 !
|
Beta Was this translation helpful? Give feedback.
-
Second-Order-based Pruning신경망의 가중치 1. 가중치 제거에 따른 손실 함수 변화네트워크가 충분히 학습되어 최적점 근방에 있다고 가정하면,
최적점 근방에서는 2. 특정 가중치
|
Beta Was this translation helpful? Give feedback.
-
Hessian Matrix 계산다음은 함수
|
Beta Was this translation helpful? Give feedback.
-
추가
|
Beta Was this translation helpful? Give feedback.
-
이런 개념으로 깊게 공부해보는 건 처음이라 꼼꼼히 보는 노력해보기
Beta Was this translation helpful? Give feedback.
All reactions